• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 5
  • 2
  • Tagged with
  • 108
  • 108
  • 28
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • 15
  • 14
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Intervalos de confiança para dados com presença de eventos recorrentes e censuras.

Faria, Rodrigo 23 May 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 DissRF.pdf: 61430 bytes, checksum: 98abe5764051c2697adcbd0c9cfcd965 (MD5) Previous issue date: 2003-05-23 / In survival analysis and reliability is common that the population units in study presents recurrence events and censoring ages, besides, is possible to exist a cost related to each event that happens. The objectives of this dissertation consists in display a methodology that makes possible the direct obtaining of confidence intervals baseds in asymptotic theory for nonparametric estimates to the mean cumulative number or cost events per unit. Some simulation studies are also showed and the objectives are check if there is some sample size's influence in the asymptotics confidence interval's precision. One of the great advantages from the methodology presented in this dissertation is the validity for it’s application in several areas of the knowledge. There's two examples considered here. One of them consists in coming data from engineering. This example contains a ‡eet of machines in analysis. The interest is to obtain punctual estimates with the respective confidence intervals for the mean cumulative number and cost repairs per machine. The other example comes from the medical area and it treats of a study accomplished with two groups of patients with bladder can- cer, each one submitted in a di¤erent treatment type. The application of the methodology in this example seeks the obtaining of confidence intervals for the mean cumulative number of tumors per patient and gain estimates that compare these two di¤erents treatments informing, statistically, which presents better results. / Em análise de sobrevivência e confiabilidade, é comum que as unidades populacionais em estudo apresentem eventos recorrentes e presença de censuras, sendo possível a atribuição de um custo relacionado a cada evento que ocorra. Os objetivos deste trabalho consistem na apresentação de uma metodologia que possibilita a obtenção direta de estimativas intervalares não-paramétricas, baseadas na teoria assintótica, para o número ou custo médio de eventos acumulados por unidade. São também realizados alguns estudos de simulação que verificam a influência do tamanho da amostra na precisão dos intervalos de confiança assintóticos obtidos. Uma das grandes vantagens da metodologia estudada, e apresentada neste trabalho, é a possibilidade de sua aplicação em diversas áreas do conhecimento. Dois exemplos são considerados. Um deles consiste em dados provenientes da área de engenharia, no qual um conjunto de motores é analisado. Neste, o interesse é obter estimativas pontuais com os respectivos intervalos de confiança para o número e custo médio de reparos acumulados por motor. O outro exemplo provém da área médica e trata de um estudo realizado com dois grupos de pacientes com câncer de bexiga, cada qual submetido a um diferente tipo de tratamento. A aplicação da metodologia neste exemplo visa, além da obtenção de intervalos de confiança para o número médio de tumores acumulados por paciente, também obter estimativas que levem à comparação dos dois tratamentos, no sentido de informar estatisticamente qual deles apresenta melhores resultados.
92

Métodos estatísticos aplicados à análise da expressão gênica.

Saraiva, Erlandson Ferreira 23 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissEFS.pdf: 1135537 bytes, checksum: b92ac0d09924bd51723ad77018da04de (MD5) Previous issue date: 2006-02-23 / Financiadora de Estudos e Projetos / The technology of the DNA-Arrays is a tool used to identify and to compare levels of expression of a great number of genes or fragments of genes, in di¤erent conditions. With this comparison, it is possible to identify genes possibly causing illnesses of genetic origin (cancer for example). Great amounts of numerical data (related the measures of levels of expression of the genes) are generated and statistical methods are important for analysis of this data with objective to identify the genes that present evidences for di¤erent levels of expression. The objective of our research is to develop and to describe methods statistical, capable of identifing genes that present evidences for di¤erent levels of expression. We describe the test t, considered for Baldi and Long (2001) and consider three others methods. The first method considered is based on the use of parametric Bayes inference and the methods for selection of models, Bayes factor and DIC; the second method is based an semi-parametric bayesian inference, model of mixtures of Dirichlet processes. The third method is based on the use of a model with infinite mixtures of distributions that applied the analysis of the genica expression determines groups of similar levels of expression. / A tecnologia dos arranjos de DNA (DNA-array) é uma ferramenta utilizada para identificar e comparar níveis de expressão de um grande número de genes ou fragmentos de genes simultaneamente, em condições diferentes. Com esta comparação, é possível determinar possíveis genes causadores de doenças de origem genética (por exemplo, o câncer). Nestes experimentos, grandes quantidades de dados numéricos (relacionados às medidas de níveis de expressão dos genes) são gerados e métodos estatísticos são im- portantes para análise dos dados, com objetivo de identificar os genes que apresentam evidências para níveis de expressão diferentes. O objetivo de nossa pesquisa é comparar o desempenho e desenvolver métodos estatísticos, capazes de identificar genes que apresentam evidências para níveis de expressão diferentes, quando comparamos situações de interesse (tratamentos) com uma situação de controle. Para isto, descrevemos o teste t, proposto por Baldi e Long (2001) e propomos três métodos para identificar genes com evidências para níveis de expressão diferentes. O primeiro método proposto é baseado na utilização da inferência bayesiana paramétrica e dos métodos de seleção de modelos, fator de Bayes e DIC; o segundo método é baseado na inferência bayesiana semi-paramétrica conhecida como modelo de misturas de processos Dirichlet; e o terceiro método é baseado na utilização de um modelo com mistura infinita de distribuições, que aplicado à análise da expressão gênica determina grupos de níveis de expressão gênica similares, baseados nos efeitos de tratamento.
93

Modelos HMM com dependência de segunda ordem: aplicação em genética.

Zuanetti, Daiane Aparecida 20 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:12Z (GMT). No. of bitstreams: 1 DissDAZ.pdf: 2962567 bytes, checksum: 5c6271a67fae12d6b0160ac8ed9351a2 (MD5) Previous issue date: 2006-02-20 / Universidade Federal de Minas Gerais / (See full text for download) / A crescente necessidade do desenvolvimento de eficientes técnicas computacionais e estatísticas para analisar a profusão de dados biológicos transformaram o modelo Markoviano oculto (HMM), caso particular das redes bayesianas ou probabilísticas, em uma alternativa interessante para analisar sequências de DNA. Uma razão do interesse no HMM é a sua flexibilidade em descrever segmentos heterogêneos da sequência através de uma mesma estrutura de dependência entre as variáveis, supostamente conhecida. No entanto, na maioria dos problemas práticos, a estrutura de dependência não é conhecida e precisa ser também estimada. A maneira mais comum para estimação de estrutra de um HMM é o uso de métodos de seleção de modelos. Outra solução é a utilização de metodologias para estimação da estrutura de uma rede probabilística. Neste trabalho, propomos o HMM de segunda ordem e seus estimadores bayesianos, definimos o fator de Bayes e o DIC para seleção do HMM mais adequado a uma sequência específica, verificamos seus desempenhos e a performance da metodologia proposta por Friedman e Koller (2003) em conjunto de dados simulados e aplicamos estas metodologias em duas sequências de DNA: o intron 7 do gene a - fetoprotein dos cimpanzés e o genoma do parasita Bacteriophage lambda, para o qual o modelo de segunda ordem é mais adequado.
94

Otimização do processo de endurecimento superficial de aços de baixa liga / Optimization of surface hardening of low alloy steels

Paulo César Oliveira Carvalho 14 March 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O objetivo deste trabalho é a aplicação de um Planejamento Fatorial Completo, ferramenta estatística que auxiliará a obter dados empíricos para otimizar um tratamento termoquímico, a cementação. Partindo-se de um levantamento da profundidade de camada cementada e da dureza de uma corrente de aço de baixo teor de carbono, usada para amarração, e para resistir à abrasão reproduziu-se uma nova cementação, variando-se seus parâmetros de influência, para se alcançar o ponto ótimo, definindo o melhor aço e o melhor processo. Foram realizados dois planejamentos, um fatorial 2 e dois 2, comparando o comportamento do processo na prática em relação aos resultados teóricos de uma simulação computacional, que permite a obtenção das curvas de enriquecimento de carbono, baseado na segunda Lei de Fick, para várias condições de contorno. Os perfis teóricos de cementação apresentaram valores de profundidade efetiva próximos aos valores obtidos experimentalmente, evidenciando o planejamento realizado.
95

Função de acoplamento t-Student assimetrica : modelagem de dependencia assimetrica / Skewed t-Student copula function : skewed dependence modelling

Busato, Erick Andrade 12 March 2008 (has links)
Orientador: Luiz Koodi Hotta / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-12T14:00:24Z (GMT). No. of bitstreams: 1 Busato_ErickAndrade_M.pdf: 4413458 bytes, checksum: b9c4c39b4639c19e685bae736fc86c4f (MD5) Previous issue date: 2008 / Resumo: A família de distribuições t-Student Assimétrica, construída a partir da mistura em média e variância da distribuição normal multivariada com a distribuição Inversa Gama possui propriedades desejáveis de flexibilidade para as mais diversas formas de assimetria. Essas propriedades são exploradas na construção de funções de acoplamento que possuem dependência assimétrica. Neste trabalho são estudadas as características e propriedades da distribuição t-Student Assimétrica e a construção da respectiva função de acoplamento, fazendo-se uma apresentação de diferentes estruturas de dependência que pode originar, incluindo assimetrias da dependência nas caudas. São apresentados métodos de estimação de parâmetros das funções de acoplamento, com aplicações até a terceira dimensão da cópula. Essa função de acoplamento é utilizada para compor um modelo ARMA-GARCHCópula com marginais de distribuição t-Student Assimétrica, que será ajustado para os logretornos de preços do Petróleo e da Gasolina, e log-retornos do Índice de Óleo AMEX, buscando o melhor ajuste, principalmente, para a dependência nas caudas das distribuições de preços. Esse modelo será comparado, através de medidas de Valor em Risco e AIC, além de outras medidas de bondade de ajuste, com o modelo de Função de Acoplamento t-Student Simétrico. / Abstract: The Skewed t-Student distribution family, constructed upon the multivariate normal mixture distribution, known as mean-variance mixture, composed with the Inverse-Gamma distribution, has many desirable flexibility properties for many distribution asymmetry structures. These properties are explored by constructing copula functions with asymmetric dependence. In this work the properties and characteristics of the Skewed t-Student distribution and the construction of a respective copula function are studied, presenting different dependence structures that the copula function generates, including tail dependence asymmetry. Parameter estimation methods are presented for the copula, with applications up to the 3rd dimension. This copula function is used to compose an ARMAGARCH- Copula model with Skewed t-Student marginal distribution that is adjusted to logreturns of Petroleum and Gasoline prices and log-returns of the AMEX Oil Index, emphasizing the return's tail distribution. The model will be compared, by the means of the VaR (Value at Risk) and Akaike's Information Criterion, along with other Goodness-of-fit measures, with models based on the Symmetric t-Student Copula. / Mestrado / Mestre em Estatística
96

Geometria da informação : métrica de Fisher / Information geometry : Fisher's metric

Porto, Julianna Pinele Santos, 1990- 23 August 2018 (has links)
Orientador: João Eloir Strapasson / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T13:44:50Z (GMT). No. of bitstreams: 1 Porto_JuliannaPineleSantos_M.pdf: 2346170 bytes, checksum: 9f8b7284329ef1eb2f319c2e377b7a3c (MD5) Previous issue date: 2013 / Resumo: A Geometria da Informação é uma área da matemática que utiliza ferramentas geométricas no estudo de modelos estatísticos. Em 1945, Rao introduziu uma métrica Riemanniana no espaço das distribuições de probabilidade usando a matriz de informação, dada por Ronald Fisher em 1921. Com a métrica associada a essa matriz, define-se uma distância entre duas distribuições de probabilidade (distância de Rao), geodésicas, curvaturas e outras propriedades do espaço. Desde então muitos autores veem estudando esse assunto, que está naturalmente ligado a diversas aplicações como, por exemplo, inferência estatística, processos estocásticos, teoria da informação e distorção de imagens. Neste trabalho damos uma breve introdução à geometria diferencial e Riemanniana e fazemos uma coletânea de alguns resultados obtidos na área de Geometria da Informação. Mostramos a distância de Rao entre algumas distribuições de probabilidade e damos uma atenção especial ao estudo da distância no espaço formado por distribuições Normais Multivariadas. Neste espaço, como ainda não é conhecida uma fórmula fechada para a distância e nem para a curva geodésica, damos ênfase ao cálculo de limitantes para a distância de Rao. Conseguimos melhorar, em alguns casos, o limitante superior dado por Calvo e Oller em 1990 / Abstract: Information Geometry is an area of mathematics that uses geometric tools in the study of statistical models. In 1945, Rao introduced a Riemannian metric on the space of the probability distributions using the information matrix provided by Ronald Fisher in 1921. With the metric associated with this matrix, we define a distance between two probability distributions (Rao's distance), geodesics, curvatures and other properties. Since then, many authors have been studying this subject, which is associated with various applications, such as: statistical inference, stochastic processes, information theory, and image distortion. In this work we provide a brief introduction to Differential and Riemannian Geometry and a survey of some results obtained in Information Geometry. We show Rao's distance between some probability distributions, with special atention to the study of such distance in the space of multivariate normal distributions. In this space, since closed forms for the distance and for the geodesic curve are not known yet, we focus on the calculus of bounds for Rao's distance. In some cases, we improve the upper bound provided by Calvo and Oller in 1990 / Mestrado / Matematica Aplicada / Mestra em Matemática Aplicada
97

O uso de ondaletas em modelos FANOVA / Wavelets FANOVA models

Kist, Airton, 1971- 19 August 2018 (has links)
Orientador: Aluísio de Souza Pinheiro / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-19T09:39:03Z (GMT). No. of bitstreams: 1 Kist_Airton_D.pdf: 4639620 bytes, checksum: 2a0cc586e73dd5d71aa0eacf07be101d (MD5) Previous issue date: 2011 / Resumo: O problema de estimação funcional vem sendo estudado de formas variadas na literatura. Uma possibilidade bastante promissora se dá pela utilização de bases ortonormais de wavelets (ondaletas). Essa solução _e interessante por sua: frugalidade; otimalidade assintótica; e velocidade computacional. O objetivo principal do trabalho é estender os testes do modelo FANOVA de efeitos fixos, com erros i.i.d., baseados em ondaletas propostos em Abramovich et al. (2004), para modelos FANOVA de efeitos fixos com erros dependentes. Propomos um procedimento iterativo tipo Cocharane-Orcutt para estimar os parâmetros e a função. A função é estimada de forma não paramétrica via estimador ondaleta que limiariza termo a termo ou estimador linear núcleo ondaleta. Mostramos que, com erros i.i.d., a convergência individual do estimador núcleo ondaleta em pontos diádicos para uma variável aleatória com distribuição normal implica na convergência conjunta deste vetor para uma variável aleatória com distribuição normal multivariada. Além disso, mostramos a convergência em erro quadrático do estimador nos pontos diádicos. Sob uma restrição é possível mostrar que este estimador converge nos pontos diádicos para uma variável com distribuição normal mesmo quando os erros são correlacionados. O vetor das convergências individuais também converge para uma variável normal multivariada / Abstract: The functional estimation problem has been studied variously in the literature. A promising possibility is by use of orthonormal bases of wavelets. This solution is appealing because of its: frugality, asymptotic optimality, and computational speed. The main objective of the work is to extend the tests of fixed effects FANOVA model with iid errors, based on wavelet proposed in Abramovich et al. (2004) to fixed effects FANOVA models with dependent errors. We propose an iterative procedure Cocharane-Orcutt type to estimate the parameters and function. The function is estimated through a nonparametric wavelet estimator that thresholded term by term or wavelet kernel linear estimator. We show that, with iid errors, the individual convergence of the wavelet kernel estimator in dyadic points for a random variable with normal distribution implies the joint convergence of this vector to a random variable with multivariate normal distribution. Furthermore, we show the convergence of the squared error estimator in the dyadic points. Under a restriction is possible to show that this estimator converges in dyadic points to a variable with normal distribution even when errors are correlated. The vector of individual convergences also converges to a multivariate normal variable / Doutorado / Estatistica / Doutor em Estatística
98

Arremessos de basquetebol e sequências de Bernoulli : uma aplicação de métodos estatísticos para análise de séries temporais binárias / Basketball shots and sequences of Bernoulli : an application of statistical methods for analysis of binary time series

Costa, Michelly Guerra, 1984- 21 August 2018 (has links)
Orientador: Cristiano Torezzan / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-21T20:22:07Z (GMT). No. of bitstreams: 1 Costa_MichellyGuerra_M.pdf: 529315 bytes, checksum: 0d134b8239c73b591005b036b0339e20 (MD5) Previous issue date: 2012 / Resumo: No presente trabalho investigamos as semelhanças entre registros de lançamentos extraídos de jogos reais de basquetebol e sequências aleatórias geradas por algoritmos computacionais. Nosso principal objetivo é comparar o comportamento das sequências de arremessos consecutivos de jogadores ao longo de uma temporada com sequências aleatórias de zeros e uns (sequências de Bernoulli) geradas computacionalmente. Para tanto, foram desenvolvidos algoritmos computacionais específicos para os testes e implementados na plataforma Scilab para análise dos dados. Os testes realizados neste trabalho indicam que, de maneira geral, não existem diferenças estatísticas entre os dois conjuntos de dados considerados. Além de uma breve revisão sobre testes estatísticos e sobre o problema da boa fase no jogo de basquetebol, apresentamos diversos exemplos visando tornar o texto acessível para alunos de graduação ou demais interessados em estatística aplicada, em especial ao esporte / Abstract: In this work we investigate the similarities between records of shots extracted from real basketball games and random sequences generated by computational algorithms. Our goal is to compare the behavior of sequences of consecutive shots of players throughout a season with random sequences of zeros and ones (Bernoulli sequences) generated computationally. For this purpose, computational algorithms have been developed for specific tests and implemented in the Scilab platform. The tests performed in this study indicate that, in general, there are no statistical differences between the two sets of data considered. Besides a brief review of statistical tests and the problem of good stage in the game of basketball, we present several examples in order to make the text accessible to undergraduates or others interested in applied statistics, especially the ones concerning this sport / Mestrado / Matematica / Mestra em Matemática
99

Produção autoral de vídeo: uma proposta de ensino com o uso de tecnologias digitais em aulas de estatística

REIS, Josiane Silva dos 28 November 2016 (has links)
Submitted by Rosana Moreira (rosanapsm@outlook.com) on 2018-08-28T19:16:42Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ProducaoAutoralVideo.pdf: 1976405 bytes, checksum: 148f09d6b648e4f6a6359ec7d5419186 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2019-01-11T16:15:14Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ProducaoAutoralVideo.pdf: 1976405 bytes, checksum: 148f09d6b648e4f6a6359ec7d5419186 (MD5) / Made available in DSpace on 2019-01-11T16:15:14Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_ProducaoAutoralVideo.pdf: 1976405 bytes, checksum: 148f09d6b648e4f6a6359ec7d5419186 (MD5) Previous issue date: 2016-11-28 / O presente trabalho investiga a contribuição da produção de vídeo como proposta metodológica para o ensino de estatística, com um grupo de alunos do 9º ano do Ensino Fundamental de uma escola pública. Trata-se de uma pesquisa qualitativa, do tipo pesquisa participante que tem por objetivo o desenvolvimento de um processo de ensino com a produção de um material audiovisual, sendo que os dados foram analisados a luz da análise interpretativa de Creswell (2007). A pesquisa foi desenvolvida em duas fases: na primeira, o grupo de alunos participantes teve a oportunidade de organizar os conhecimentos e discutir os conceitos bases da estatística em um fórum online criado em uma rede social; na segunda, o grupo criou estratégias, organizou e elaborou materiais para a produção e edição do vídeo. O trabalho se deu na perspectiva da Aprendizagem Colaborativa, que tem como um de seus pressupostos teóricos a Teoria Interacionista de Vygotsky (1989), na qual o conhecimento pode ser construído coletivamente na troca entre pares e por meio da interação. Dessa forma, a tecnologia digital se configura como um recurso didático-pedagógico em todo o processo de ensino proposto e possibilita o desenvolvimento de uma proposta de ensino que pode superar propostas tradicionais de reprodução do conhecimento, desenvolvendo nos alunos uma postura autoral na busca e na construção do conhecimento. Os resultados mostraram que o ensino colaborativo, fomentado pelo uso das tecnologias digitais, favoreceu a interação e instigou a atitude autônoma dos alunos na busca e compreensão dos conhecimentos na área da estatística, além disso, as estratégias e aplicabilidade dos conhecimentos construídos permitiram que o grupo de alunos reconhecesse um problema de sua realidade e buscassem soluções de dirimi-lo. Quanto ao produto desse trabalho, considero que o vídeo, como resultado do processo de ensino proposto, possibilitou consolidar as ideias e conhecimentos que foram construídos pelo grupo de alunos durante a pesquisa e constitui-se como recurso de orientação para o professor que busca práticas de ensino diferenciadas com o uso das tecnologias digitais. / The present work investigated the video production contribution as methodological proposal for teaching of statistics, with a group os students of the 9 th grade of Elementary School from a public school. This is a qualitative research, a participative research, that aimed to develop a process of teaching with the production of a material audiovisual, and the data were analyzed in light of the interpretative analysis of Cresweell (2007). The research was carried out in two major phases: in the first, the group of participating students had the opportunity to organize knowledge and discuss the basic concepts of statistics in an online forum created in a social network; in the second, the group created strategies, organized and elaborated materials for the production and editing of the video. The work took place in the context of Collaborative Learning, which has as one of its theoretical assumptions the Interactionist Theory of Vygotsky (1989), in which knowledge can be built collectively in the exchange between peers and through interaction.Thus, the technology guides all the proposed teaching process and enables the development of a teaching proposal that can overcome the traditional proposals of knoledge reproduction. The results showed that the collaborative learning, fomented by the use of digital technologies, favored interaction and instigated the autonomous attitude of the students in the pursuit and understanding of knowledge in statistics, besides that, the strategies and applicability of the built knowledge allowed the group of students recognized a problem of their reality and seek solutions resolve it. Regarding the product of this work, I believe the video, as a result of the proposed teaching process, it allowed to consolidate the research and serves as a guidance resource for teachers seeking differentiated teaching practices with the use of digital technologies. / SEDUC/PA - Secretaria de Estado de Educação
100

Essays in econometric theory

Casalecchi, Alessandro Ribeiro de Carvalho 25 May 2017 (has links)
Submitted by Alessandro Ribeiro de Carvalho Casalecchi (alercc@gmail.com) on 2017-07-03T21:17:55Z No. of bitstreams: 1 Tese_Alessandro_Casalecchi.pdf: 2174297 bytes, checksum: 27298549cf220c58b7eb52f7323446d7 (MD5) / Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2017-07-04T11:10:20Z (GMT) No. of bitstreams: 1 Tese_Alessandro_Casalecchi.pdf: 2174297 bytes, checksum: 27298549cf220c58b7eb52f7323446d7 (MD5) / Made available in DSpace on 2017-07-05T13:46:08Z (GMT). No. of bitstreams: 1 Tese_Alessandro_Casalecchi.pdf: 2174297 bytes, checksum: 27298549cf220c58b7eb52f7323446d7 (MD5) Previous issue date: 2017-05-25 / Os dois artigos desta tese, os capítulos 2 e 3, referem-se a testes de hipótese mas têm focos diferentes. O capítulo 2, intitulado "Improvements for external validity tests in fuzzy regression discontinuity designs," apresenta condições --- hipóteses de continuidade, monotonicidade estrita e convergência pontual --- sob as quais testes de qualidade de ajuste para duas amostras podem ser usados para testes de validade externa em modelos de tratamento-controle que sofrem de "compliance" imperfeito. Modelos com "compliance" imperfeito permitem a estimação de efeitos de tratamento apenas para a subpopulação de "compliers", sendo que tais estimativas não são necessariamente válidas para outras subpopulações ("always-takers" e "never-takers"). Sob as condições do capítulo 2, o uso do teste de qualidade de ajuste no lugar do teste de diferença de médias representa um avanço para testes de validade externa, uma vez que mais hipóteses alternativas são detectáveis pelo primeiro teste. Sugerimos combinar duas estatísticas de teste de qualidade de ajuste (uma para tratados e outra para não tratados) na forma de um teste múltiplo ao invés de um teste conjunto. O capítulo 3, intitulado "Higher-order UMP tests", sugere uma estratégia para se escolher, dentro de um conjunto de estatísticas de teste disponíveis, aquela que fornece o teste mais poderoso quando as funções de poder dos testes em questão não podem ser diferenciadas através de métodos assintóticos usuais, como análise de poder local ("local power analysis"). Propomos o uso de aproximações assintóticas de ordem mais alta, como expansões de Edgeworth, para se aproximar as densidades amostrais das estatísticas disponíveis e, com isso, verificar-se quais delas possuem a propriedade da razão monotônica de verossimilhança. Tal propriedade implica, pelo Teorema de Karlin-Rubin, que o teste é uniformemente mais poderoso (UMP) --- ao menos até certa ordem de aproximação --- se a estatística for suficiente para o parâmetro relevante. Para o caso em que as estatísticas sendo comparadas não são suficientes, argumentamos que frequentemente elas podem se tornar suficientes para uma família paramétrica de interesse após reparametrizações apropriadas. Para fins de ilustração, nós aplicamos o método proposto para determinar o valor ótimo, em termos de poder, do parâmetro de suavização do estimador de densidade por kernel em bases de dados simuladas e concluímos que a ordem de aproximação usada nesta aplicação (segunda ordem) não é alta o suficiente para permitir a diferenciação das funções de poder associadas aos diferentes valores do parâmetro de suavização. / The two papers in this work, chapters 2 and 3, regard hypothesis testing but address different issues. Chapter 2, entitled "Improvements for external validity tests in fuzzy regression discontinuity designs", shows conditions --- assumptions of continuity, strict monotonicity and pointwise convergence --- under which two-sample goodness-of-fit (GOF) tests can be used to test for external validity in treatment-control models that suffer from imperfect compliance of units with respect to the assigned treatment. Imperfect compliance allows researchers to estimate only treatment effects for the subpopulation of compliers, and the validity of these estimates for other subpopulations (always-takers and never-takers) remains an open problem. Under the conditions in Chapter 2, the use of GOF tests in place of mean difference tests represents an improvement over other external validity tests in the literature, since more alternative hypotheses are detectable by the test statistic. We suggested to combine two GOF test statistics (one for the treated and one for the untreated) in a multiple test instead of a joint test. Chapter 3, entitled "Higher-order UMP tests", suggests a strategy to choose among candidate test statistics, according to a power criterion, when their power performances are not distinguishable by usual methods of asymptotic comparison like local power analysis. We propose the use of higher-order asymptotic expansions, like Edgeworth expansions, to approximate the sample densities of the candidate test statistics and verify which of them has the monotone likelihood ratio property. This property implies, by the Karlin-Rubin Theorem, that the test is uniformly most powerful (UMP) --- at least to an order of approximation --- if the statistic is sufficient for the relevant parameter. When the statistics under study are not sufficient, we argue that they can often be made sufficient for a desired parametric family after appropriate reparameterization. We applied the method to search for the power-optimal bandwidth for the kernel density estimator in simulated data sets, and concluded that the order of approximation that we used (second order) is still too low to allow us to distinguish among bandwidths.

Page generated in 0.1465 seconds