• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • 1
  • Tagged with
  • 8
  • 8
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estudo dos métodos estatísticos na análise da biodisponibilidade relativa/bioequivalência para o registro de medicamentos no Brasil / Study of the statistical methods in the analysis of the biodisponibilidade relativa/bioequivalência for the registration of medications in Brazil

Pitta, Luciana da Rocha January 2004 (has links)
Made available in DSpace on 2014-09-24T12:58:26Z (GMT). No. of bitstreams: 2 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) 172.pdf: 628089 bytes, checksum: 3763e5324edda128696e185d8098c259 (MD5) Previous issue date: 2004 / Fundação Oswaldo Cruz. Instituto Nacional de Controle de Qualidade em Saúde / A ANVISA, órgão que regulamenta e controla a liberação dos medicamentos no Brasil, não indica um método estatístico específico para ser utilizado nos estudos de BD relativa/BE. Tendo em vista que existem vários métodos estatísticos possíveis, hipotetizamos aqui que, em determinados casos, poderíamos obter um resultado não bioequivalente com um determinado modelo estatístico e bioequivalente utilizando um outro modelo. Em nosso trabalho, comparamos os resultados dos seguintes métodos estatísticos: Filler, Anderson e Hauck, Shortest, Lehmann (NP), T-test, Westlake, Baseado ANOVA, Hauschke Trabalhamos com 49 estudos de bioequivalência e constatamos que 28 (57%)destes foram bioequivalentes, enquanto 9 (18,4%) se apresentaram bioinequivalentes em todos os métodos utilizados. Nos 12 (24,5%) restantes, obtivemos resultados contraditórios. Analisando o resultado de um determinado método em relação ao da maioria, demonstramos que o Teste t na diferença, Lehmann, Hauschke e o Anderson eHauck foram os que concluíram mais resultados diferentes da maioria dos método sem questão. Já o Teste t e o teste baseado na ANOVA, ambos utilizando a razão das médias, e o método de Westlake, foram os que obtiveram apenas um resultado diferente da maioria dos métodos estatísticos utilizados. Podemos ressaltar que a maior parte dos resultados em bioinequivalência foi em função do parâmetro Cmax com 67,36%. Já em relação ao parâmetro ASC, concluímos bioinequivalência em apenas 1,04% dos métodos. Além disso, obtivemos 31,61% dos resultados acusando não bioequivalência em ambos os parâmetros. / ANVISA, organ that regulates and it controls the liberation of the medicines in Brazil, it doesn't indicate a statistical method specify to be used in the studies of BDrelative/BE. Tends in view that several possible statistical methods exist, we presume that, in certain cases, we could obtain a result no bioequivalente with a certain statistical model and bioequivalente if we use another model. In our work we compared the results of the following statistical methods: Filler, Anderson and Hauck, Shortest, Lehmann (NP), T-test, Westlake, Based ANOVA, Hauschke With the end of our study, where we worked with 49 bioequivalence studies and we verified that 28 (57%) studies were bioequivalentes and 9 (18,4%) they were bioinequivalentes in all of the used methods. In the 12 (24,5%) remaining studies had resulted contradictory. Analyzing the result of a certain method in relation to the result of most of the methods, we demonstrated that the Test t in the difference, Lehmann, Hauschke and Anderson and Hauck were the ones that ended more results different from most of the methods in subject. Already the Test t and the test based on ANOVA, both using the reason of the averages and the method of Westlake, they were the ones that just obtained one result different from most of the used statistical methods. We can stand out although most of the results in bioinequivalence was in function of the parameter Cmax with 67,36%. Already the parameter ASC concluded bioinequivalence in only 1,04% of the methods. Besides, we obtained 31,61% results of no bioequivalence with both parameters.
2

Reamostragem bootstrap em amostragem por conjuntos ordenados e intervalos de confiança não paramétricos para a média.

Taconeli, Cesar Augusto 27 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1 DissCAT.pdf: 1246450 bytes, checksum: 08bdf53e7efc64e4dcca7835dee4b601 (MD5) Previous issue date: 2005-01-27 / Financiadora de Estudos e Projetos / Ranked set sampling is an efficient and practice way to obtain more precise estimative when the sample size is small because of the high cost or difficulties to measure the interest variable. Using rough and cheap qualitative or quantitative information, the sample units are ranked before their effective measurement. In 1952, McIntyre introduced the ranked set sample design to estimate the average yields from plots of cropland, using the ranked set sample mean, X . Cesario and Barreto (2003) have shown a parametric version of bootstrap confidence intervals for normal distribution mean. Because of the restriction of small sample size, the distributional assumption may not be reasonable, producing no liable estimates. So the study and proposition of precise interval estimators of the population mean could be relevant and are the main interest of this work. Using resampling methods, we propose in this work an extension of bootstrap resampling for ranked set sampling. A simulation study is conduced to the properties of single random sample bootstrap confidence intervals and the similar using our version for ranked set sampling. The analysis of the simulation study have shown the gain of precision for using the ranked set sampling bootstrap confidence intervals in the population mean. / A amostragem por conjuntos ordenados é uma alternativa prática e eficiente no que concerne à obtenção de estimativas mais precisas frente à impossibilidade de extração de uma amostra numerosa, seja devido a dificuldades na mensuração da variável de interesse ou a um elevado custo inerente a obtenção de tais medidas. A aplicação deste delineamento amostral torna-se viável caso seja possível ordenar amostras extraídas aleatoriamente de maneira eficiente, de acordo com o valor da variável de interesse, sem de fato medi-las, mas baseado apenas em um critério pré-estabelecido, que pode ser alguma variável concomitante altamente correlacionada ou mesmo mediante algum julgamento pessoal. Introduzida por McIntyre (1952), a amostragem por conjuntos ordenados propicia a estimação de diversos parâmetros com um relevante ganho em termos de precisão. Um estimador para a média populacional é a média da amostra por conjuntos ordenados ( X ), proposto por McIntyre com aplicações, inicialmente, na estimação da produção média de pastagens. Cesário e Barreto (2003) apresentam uma alternativa paramétrica na obtenção de intervalos de confiança bootstrap para a média de populações com distribuição normal via amostragem por conjuntos ordenados. Dada a restrição quanto à seleção de grandes amostras, a suposição de alguma distribuição para a variável de interesse muitas vezes não é razoável, gerando estimativas pouco confiáveis. Neste contexto, o estudo e a proposição de estimadores intervalares não paramétricos para a média, elaborados a partir de um esquema de seleção de amostras capaz de gerar estimativas precisas sob circunstâncias adversas, como é a amostragem por conjuntos ordenados, mostra-se altamente relevante, sendo o objeto de estudo deste trabalho. Os intervalos de confiança analisados são obtidos através de um esquema original de reamostragem bootstrap, fundamentado em amostragem por conjuntos ordenados, seguindo algoritmos propostos neste trabalho. A análise das propriedades destes intervalos foi realizada a partir de um amplo estudo via simulação, que evidenciou uma significativa melhora das estimativas propostas, quando comparado àquelas convencionais, baseadas em amostragem aleatória simples, especialmente em relação à precisão de tais estimativas.
3

Ensaios sobre heteroscedasticidade em modelos de efeitos fixos

Uchôa, Carlos Frederico Azeredo 21 December 2012 (has links)
Submitted by Israel Vieira Neto (israel.vieiraneto@ufpe.br) on 2015-03-04T12:50:51Z No. of bitstreams: 2 Ensaios sobre heteroscedasticidade em modelos de EF (Tese de Doutorado).pdf: 673376 bytes, checksum: 7c86e8749910ad5db783505cfe934b2f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-04T12:50:51Z (GMT). No. of bitstreams: 2 Ensaios sobre heteroscedasticidade em modelos de EF (Tese de Doutorado).pdf: 673376 bytes, checksum: 7c86e8749910ad5db783505cfe934b2f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-12-21 / Esta tese é composta de quatro ensaios que estendem e avaliam o desempenho de uma classe de estimadores consistentes da matriz de covariâncias nos modelos de efeitos fixos. No primeiro ensaio as simulações evidenciam que o estimador proposto por Arellano (1987) pode não ser a melhor opção quando o teste é conduzido com resíduos irrestritos. Os resultados mostram que há uma considerável vantagem em utilizar o estimador CHC4 quando o tamanho amostral é pequeno ou se existem pontos de alavanca nos dados. Por outro lado, quando a avaliação é conduzida com resíduos restritos, os resultados favorecem o estimador CHCR0. Estimadores de bootstrap também são avaliados e produzem, em alguns casos, resultados melhores que os estimadores consistentes. O segundo ensaio avalia o desempenho dos estimadores consistentes da matriz de covariâncias, na construção de intervalos de confiança. Os resultados mostram que o estimador CHC4 tem desempenho superior aos demais estimadores consistentes, principalmente se os dados contêm pontos de alavanca. O terceiro ensaio avalia numericamente a qualidade da aproximação usual para a distribuição exata dos testes quase-t. Os resultados mostram que, se a estatística de teste é construída com resíduos irrestritos, o estimador mais amplamente utilizado conduz a testes quase-t com aproximações bastante ruins sendo o CHC4 a estratégia de inferência preferencial. Por outro lado, se a estatística de teste é construída com resíduos restritos, o estimador de Arellano torna-se a opção mais adequada. O quarto e último ensaio mostra que a inferência sobre os parâmetros do modelo de Diferenças em Diferenças (DD) pode ser imprecisa quando os problemas de heteroscedasticidade e/ou autocorrelação serial nos erros são ignorados. O desempenho dos testes baseados no estimador de Arellano e de outros estimadores consistentes nos modelos de DD é avaliado na presença de ambos. Os resultados mostram que, num modelo que contém apenas a dummy de intervenção, o desempenho dos testes baseados nos nesses estimadores é similar. No entanto, é possível melhorar a qualidade da inferência se o modelo de regressão possui variáveis de controle adicionais com pontos alavancados.
4

Intervalos de confiança para altos quantis oriundos de distribuições de caudas pesadas / Confidence intervals for high quantiles from heavy-tailed distributions.

Montoril, Michel Helcias 10 March 2009 (has links)
Este trabalho tem como objetivo calcular intervalos de confiança para altos quantis oriundos de distribuições de caudas pesadas. Para isso, utilizamos os métodos da aproximação pela distribuição normal, razão de verossimilhanças, {\\it data tilting} e gama generalizada. Obtivemos, através de simulações, que os intervalos calculados a partir do método da gama generalizada apresentam probabilidades de cobertura bem próximas do nível de confiança, com amplitudes médias menores do que os outros três métodos, para dados gerados da distribuição Weibull. Todavia, para dados gerados da distribuição Fréchet, o método da razão de verossimilhanças fornece os melhores intervalos. Aplicamos os métodos utilizados neste trabalho a um conjunto de dados reais, referentes aos pagamentos de indenizações, em reais, de seguros de incêndio, de um determinado grupo de seguradoras no Brasil, no ano de 2003 / In this work, confidence intervals for high quantiles from heavy-tailed distributions were computed. More specifically, four methods, namely, normal approximation method, likelihood ratio method, data tilting method and generalised gamma method are used. A simulation study with data generated from Weibull distribution has shown that the generalised gamma method has better coverage probabilities with the smallest average length intervals. However, from data generated from Fréchet distribution, the likelihood ratio method gives the better intervals. Moreover, the methods used in this work are applied on a real data set from 1758 Brazilian fire claims
5

Intervalos de confiança para altos quantis oriundos de distribuições de caudas pesadas / Confidence intervals for high quantiles from heavy-tailed distributions.

Michel Helcias Montoril 10 March 2009 (has links)
Este trabalho tem como objetivo calcular intervalos de confiança para altos quantis oriundos de distribuições de caudas pesadas. Para isso, utilizamos os métodos da aproximação pela distribuição normal, razão de verossimilhanças, {\\it data tilting} e gama generalizada. Obtivemos, através de simulações, que os intervalos calculados a partir do método da gama generalizada apresentam probabilidades de cobertura bem próximas do nível de confiança, com amplitudes médias menores do que os outros três métodos, para dados gerados da distribuição Weibull. Todavia, para dados gerados da distribuição Fréchet, o método da razão de verossimilhanças fornece os melhores intervalos. Aplicamos os métodos utilizados neste trabalho a um conjunto de dados reais, referentes aos pagamentos de indenizações, em reais, de seguros de incêndio, de um determinado grupo de seguradoras no Brasil, no ano de 2003 / In this work, confidence intervals for high quantiles from heavy-tailed distributions were computed. More specifically, four methods, namely, normal approximation method, likelihood ratio method, data tilting method and generalised gamma method are used. A simulation study with data generated from Weibull distribution has shown that the generalised gamma method has better coverage probabilities with the smallest average length intervals. However, from data generated from Fréchet distribution, the likelihood ratio method gives the better intervals. Moreover, the methods used in this work are applied on a real data set from 1758 Brazilian fire claims
6

Uma metodologia para aferição da acurácia de modelos de projeção de longo prazo para a Previdência Social no Brasil

SILVA, Carlos Patrick Alves da 01 December 2017 (has links)
Submitted by Rosana Moreira (rosanapsm@outlook.com) on 2018-07-05T20:40:06Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_Metodologia_Afericao_Acuracia.pdf: 13739392 bytes, checksum: 9f45c66d5014068ae4f66d7c05c0e320 (MD5) / Approved for entry into archive by Luciclea Silva (luci@ufpa.br) on 2018-07-18T15:31:37Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_Metodologia_Afericao_Acuracia.pdf: 13739392 bytes, checksum: 9f45c66d5014068ae4f66d7c05c0e320 (MD5) / Made available in DSpace on 2018-07-18T15:31:37Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_Metodologia_Afericao_Acuracia.pdf: 13739392 bytes, checksum: 9f45c66d5014068ae4f66d7c05c0e320 (MD5) Previous issue date: 2017-12-01 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / As projeções estatísticas de longo prazo do resultado previdenciário publicadas na Lei de Diretrizes Orçamentárias são recorrentemente usadas como subsídios para as propostas de reforma da Previdência Social no Brasil. Entretanto, a confiabilidade dos resultados possui um alto grau de incerteza, já que não há, da parte do governo ou de outros setores da sociedade, qualquer avaliação sistemática e minimamente científica das projeções que tenham sido publicadas. Este trabalho apresenta um estudo minucioso e criterioso dos instrumentos utilizados pelo governo brasileiro para projetar os resultados atuariais de longo prazo. Mais especificamente, investigam-se quais seriam as fonte de dados, pressupostos, equações, variáveis, parâmetros e métodos de estimação que serviram de base para os resultados divulgados pelo governo federal. Uma análise empírica demonstra que as projeções do governo são sistematicamente viesadas no curto prazo e apresentam erros de elevada magnitude, que as tornam sem significado e acurácia no longo prazo. Além disso, as tentativas de reprodução dos resultados das LDOs de 2012 e 2018 demonstram a falta de transparência nos documentos oficiais, tanto nas equações descritas quanto nos bancos de dados supostamente utilizados. A partir de um modelo matemático desenvolvido, mostrou-se que as projeções de longo prazo de variáveis como o PIB, receita e despesa da Previdência, possuem um grande componente de volatilidade e incerteza que tornam a sua previsão desafiadora a curto prazo e praticamente impossível, com um nível de confiança aceitável, a longo prazo. Uma análise de sensibilidade para os parâmetros de produtividade e alíquota média, mostrou o impacto destes nos resultados da Previdência, mostrando um ganho de até 72% na receita para um crescimento na produtividade do trabalho de 3% ao ano, por exemplo. Por fim, é apresentado um software de domínio público, desenvolvido no âmbito desta pesquisa, que implementa o atual modelo de projeção de receitas e despesa do governo, além de acrescentar diversas opções de parâmetros no processo de projeção, como a possibilidade de simular alterações no mercado de trabalho. / Long-term social security statistical forecasts produced and disseminated by the Brazilian government aim to provide accurate results that would serve as background information for policy decisions. These forecasts are being used as support for the government’s proposed pension reform. However, the reliability of official results is uncertain since no systematic evaluation of these forecasts has ever been published by the Brazilian government or anyone else. This work aims to present a study of the accuracy and methodology of the instruments used by the Brazilian government to carry out long-term actuarial forecasts. More specifically, this work investigates what would be the source of data, assumptions, equations, variables, parameters and estimation methods used to compute results released by the federal government. An empirical analysis shows that the long-term Social Security forecasts are systematically biased in the short term and have significant errors that render them meaningless in the long run. In addition, attempts to reproduce the results of the 2012 and 2018 LDOs demonstrate the lack of transparency in official documents, both in the described equations and the databases used. From a mathematical model developed, it was shown that the long-term forecasts of variables, such as GDP, Social Security revenues and expenses, have a large component of volatility and uncertainty which make your forecast challenging in the short term and impossible, with an acceptable level of confidence, in the long run. A sensitivity analysis for the productivity and average contribution rate parameters showed the impact of these on Social Security results, showing a gain of up to 72% in revenue for an annual labor productivity growth of 3%, for example. Finally, a free and open source software, developed under this research, that implements the current official forecast model is presented, as well as several improvements in the design process, such as the ability to simulate changes in the labor market.
7

Multivariate Copula-based SUR Tobit Models : a modified inference function for margins and interval estimation

Silva, Paulo Henrique Ferreira da 30 September 2015 (has links)
Submitted by Daniele Amaral (daniee_ni@hotmail.com) on 2016-09-14T18:49:08Z No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:17Z (GMT) No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-16T19:48:23Z (GMT) No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) / Made available in DSpace on 2016-09-16T19:48:28Z (GMT). No. of bitstreams: 1 TesePHFS.pdf: 1284969 bytes, checksum: 4ebcbf7e8a84023d87dab3c54c19f103 (MD5) Previous issue date: 2015-09-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / In this thesis, we extend the analysis of multivariate Seemingly Unrelated Regression (SUR) Tobit models by modeling their nonlinear dependence structures through copulas. The capability in coupling together the diferent - and possibly non-normal - marginal distributions allows the exible modeling for the SUR Tobit models. In addition, the ability to capture the tail dependence of the SUR Tobit models where some data are censored (e.g., in econometric analysis, clinical essays, wide range of political and social phenomena, among others, data are commonly left-censored at zero point, or right-censored at a point d > 0) is another useful feature of copulas. Our study proposes a modified version of the (classical) Inference Function for Margins (IFM) method by Joe & Xu (1996), which we refer to as MIFM method, to obtain the (point) estimates of the marginal and copula association parameters. More specifically, we use a (frequentist) data augmentation technique at the second stage of the IFM method (the first stage of the MIFM method is equivalent to the first stage of the IFM method) to generate the censored observations and then estimate the copula parameter. This procedure (data augmentation and copula parameter estimation) is repeated until convergence. Such modification at the second stage of the usual method is justified in order to obtain continuous marginal distributions, which ensures the uniqueness of the resulting copula, as stated by Sklar (1959)'s theorem; and also to provide an unbiased estimate of the copula association parameter (the IFM method provides a biased estimate of the copula parameter in the presence of censored observations in the margins). Since the usual asymptotic approach, that is the computation of the asymptotic covariance matrix of the parameter estimates, is troublesome in this case, we also propose the use of resampling procedures (bootstrap methods, like standard normal and percentile by Efron & Tibshirani (1993), and basic bootstrap by Davison & Hinkley (1997)) to obtain con_dence intervals for the copula-based SUR Tobit model parameters. / Nesta tese de doutorado, consideramos os chamados modelos SUR (da expressão Seemingly Unrelated Regression) Tobit multivariados e estendemos a análise de tais modelos ao empregar funções de cópula para modelar estruturas com dependência não linear. As cópulas, dentre outras características, possuem a importante habilidade (vantagem) de capturar/modelar a dependência na(s) cauda(s) do modelo SUR Tobit em que alguns dados são censurados (por exemplo, em análise econométrica, ensaios clínicos e em ampla gama de fenômenos políticos e sociais, dentre outros, os dados são geralmente censurados à esquerda no ponto zero, ou à direita em um ponto d > 0 qualquer). Neste trabalho, propomos uma versão modificada do método clássico da Inferência para as Marginais (IFM, da expressão Inference Function for Margins), originalmente proposto por Joe & Xu (1996), a qual chamamos de MIFM, para estimação (pontual) dos parâmetros do modelo SUR Tobit multivariado baseado em cópula. Mais especificamente, empregamos uma técnica (frequentista) de ampliação de dados no segundo estágio do método IFM (o primeiro estágio do método MIFM é igual ao primeiro estágio do método IFM) para gerar as observações censuradas e, então, estimamos o parâmetro de dependência da cópula. Repetimos tal procedimento (ampliação de dados e estimação do parâmetro da cópula) até obter convergência. As razões para esta modificação no segundo estágio do método usual, são as seguintes: primeiro, construir/obter distribuições marginais contínuas, atendendo, então, ao teorema de unicidade da cópula resultante de Sklar (Sklar, 1959); e segundo, fornecer uma estimativa não viesada para o parâmetro da cópula (uma vez que o método IFM produz estimativas viesadas do parâmetro da cópula na presença de observações censuradas nas marginais). Tendo em vista a dificuldade adicional em calcular/obter a matriz de covariâncias assintótica das estimativas dos parâmetros, também propomos o uso de procedimentos de reamostragem (métodos bootstrap, tais como normal padrão e percentil, propostos por Efron & Tibshirani (1993), e básico, proposto por Davison & Hinkley (1997)) para a construção de intervalos de confiança para os parâmetros do modelo SUR Tobit baseado em cópula.
8

Eliminação de parâmetros perturbadores em um modelo de captura-recaptura

Salasar, Luis Ernesto Bueno 18 November 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4032.pdf: 1016886 bytes, checksum: 6e1eb83f197a88332f8951b054c1f01a (MD5) Previous issue date: 2011-11-18 / Financiadora de Estudos e Projetos / The capture-recapture process, largely used in the estimation of the number of elements of animal population, is also applied to other branches of knowledge like Epidemiology, Linguistics, Software reliability, Ecology, among others. One of the _rst applications of this method was done by Laplace in 1783, with aim at estimate the number of inhabitants of France. Later, Carl G. J. Petersen in 1889 and Lincoln in 1930 applied the same estimator in the context of animal populations. This estimator has being known in literature as _Lincoln-Petersen_ estimator. In the mid-twentieth century several researchers dedicated themselves to the formulation of statistical models appropriated for the estimation of population size, which caused a substantial increase in the amount of theoretical and applied works on the subject. The capture-recapture models are constructed under certain assumptions relating to the population, the sampling procedure and the experimental conditions. The main assumption that distinguishes models concerns the change in the number of individuals in the population during the period of the experiment. Models that allow for births, deaths or migration are called open population models, while models that does not allow for these events to occur are called closed population models. In this work, the goal is to characterize likelihood functions obtained by applying methods of elimination of nuissance parameters in the case of closed population models. Based on these likelihood functions, we discuss methods for point and interval estimation of the population size. The estimation methods are illustrated on a real data-set and their frequentist properties are analised via Monte Carlo simulation. / O processo de captura-recaptura, amplamente utilizado na estimação do número de elementos de uma população de animais, é também aplicado a outras áreas do conhecimento como Epidemiologia, Linguística, Con_abilidade de Software, Ecologia, entre outras. Uma das primeiras aplicações deste método foi feita por Laplace em 1783, com o objetivo de estimar o número de habitantes da França. Posteriormente, Carl G. J. Petersen em 1889 e Lincoln em 1930 utilizaram o mesmo estimador no contexto de popula ções de animais. Este estimador _cou conhecido na literatura como o estimador de _Lincoln-Petersen_. Em meados do século XX muitos pesquisadores se dedicaram à formula ção de modelos estatísticos adequados à estimação do tamanho populacional, o que causou um aumento substancial da quantidade de trabalhos teóricos e aplicados sobre o tema. Os modelos de captura-recaptura são construídos sob certas hipóteses relativas à população, ao processo de amostragem e às condições experimentais. A principal hipótese que diferencia os modelos diz respeito à mudança do número de indivíduos da popula- ção durante o período do experimento. Os modelos que permitem que haja nascimentos, mortes ou migração são chamados de modelos para população aberta, enquanto que os modelos em que tais eventos não são permitidos são chamados de modelos para popula- ção fechada. Neste trabalho, o objetivo é caracterizar o comportamento de funções de verossimilhança obtidas por meio da utilização de métodos de eliminação de parâmetros perturbadores, no caso de modelos para população fechada. Baseado nestas funções de verossimilhança, discutimos métodos de estimação pontual e intervalar para o tamanho populacional. Os métodos de estimação são ilustrados através de um conjunto de dados reais e suas propriedades frequentistas são analisadas via simulação de Monte Carlo.

Page generated in 0.1124 seconds