201 |
Determinação do número de toras comerciais destinadas à produção de celulose aplicando um modelo de distribuição diamétrica e equação de taper / Determining the number of commercial logs for the production of cellulose applying a diametric distribution model and taper equationGomide, Cintia Ribeiro 19 February 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-08-19T13:24:11Z
No. of bitstreams: 1
texto completo.pdf: 24313892 bytes, checksum: bc52ffd41b682b4b6f05cfcde760d14e (MD5) / Made available in DSpace on 2016-08-19T13:24:11Z (GMT). No. of bitstreams: 1
texto completo.pdf: 24313892 bytes, checksum: bc52ffd41b682b4b6f05cfcde760d14e (MD5)
Previous issue date: 2016-02-19 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / O conhecimento da distribuição diamétrica de um povoamento de eucalipto, associado à aplicação de equações de afilamento do fuste propiciam informações acerca do número de toras vinculadas às dimensões especificadas de um determinado produto. O objetivo deste estudo foi obter a distribuição de diâmetros, bem como, ajustar um modelo de distribuição diamétrica e de taper, visando determinar o número de toras com dimensões comerciais relacionadas à produção de celulose. Ademais, identificar o dap mínimo, aos 84 meses, que permita obter pelo menos uma tora com as dimensões aludidas e testar modelos para a projeção do dap. Foram utilizados dados provenientes de parcelas permanentes de inventário florestal contínuo. A partir da classificação da capacidade produtiva, selecionaram-se 12 projetos, sendo um por classe de local (I, II e III) e um por região (A, B, C e D). Para estimar a distribuição diamétrica em idades atuais e futuras ajustou-se a função Weibull de dois parâmetros. Para correlacionar atributos do povoamento e parâmetros da função densidade de probabilidade foram ajustados modelos constituídos pelas seguintes variáveis: idade, diâmetro máximo, diâmetro mínimo, número de árvores, altura dominante e combinações dessas variáveis. O modelo de taper ajustado foi o proposto por Garay. Foram testados dois modelos para a projeção do dap. A distribuição diamétrica estimada seguiu a distribuição observada, assim como, o ajuste das equações do modelo de distribuição diamétrica mostrou-se adequado aos dados. A equação de afilamento ajustada forneceu estimativas precisas quanto à altura relativa aos diâmetros dos centros de classes da distribuição diamétrica, possibilitando calcular o número de toras comerciais por classe e, ainda, identificar o dap mínimo a partir do qual é possível obter pelo menos uma tora comercial. Os modelos testados para estimar o crescimento em dap ajustaram-se bem aos dados. A metodologia proposta revelou ser consistente e viabiliza estudos para melhorias de modelos de planejamento florestal. / Knowledge of the diameter distribution of a eucalyptus stand, associated with the application of taper functions provide information about the number of logs linked to a particular product dimensions. The objective of this study was to obtain the distribution of diameters as well, fit a model of diameter distribution and taper, in order to determine the number of logs with commercial aspects related to pulp production. Besides, identifying the minimum dap, at 84 months, able to provide at least a log with the aforementioned dimensions and test models for the projection of dap. The data used in this study were originated from permanent plots of continuous forest inventories. From the productive capacity rating, were selected 12 projects, one per class of site index (I, II and III) and one per region (A, B, C and D). To estimate the diameter distribution of current and future age the Weibull function of two parameters was adjusted. In order to correlate attributes of the stand and parameters of the probability density function were adjusted models consisting of the following variables: age, maximum diameter, minimum diameter, number of trees, dominant height and combinations of these variables. The adjusted taper model was proposed by Garay. Two models for the projection of dap were tested. The estimated diameter distribution followed the observed distribution as well as the adjustment of the diametric distribution model equations was adequate to the data. The taper equation provided accurate estimates of the height relative to diameter of center classes of the diameter distribution, making it possible to calculate the number of commercial logs per class and also to identify the minimum dap from which you can get at least one log commercial. The models tested to estimate the growth dap set up well to the data. The proposed methodology proved to be consistent and enables studies to improve forest planning models.
|
202 |
Sensibilidade à situação em ambientes de vivência assistida : uma abordagem reativa, proativa e extensível / Situation awareness in ambient assisted living : a reactive, proactive and extensible approachMachado, Alencar January 2015 (has links)
No futuro, espera-se que residências se tornem Ambientes Inteligentes capazes de assistir as pessoas que nelas habitam. Sistemas desenvolvidos para esses Ambientes de Vivência Assistida poderiam manipular o dinamismo existente dentro das residências. Estas normalmente são organizadas de acordo com o perfil do usuário, sendo que objetos, ao longo do tempo, são atualizados ou alterados em relação à localização, principalmente equipamentos eletrônicos. O perfil do usuário também pode se alterar ao longo do tempo. Por exemplo, diferentes doenças podem envolver o usuário e fazer com que a relação dele com os objetos da residência se alterem, sendo que, quando esta relação é alterada devido a problemas cognitivos (como esquecimentos), às vezes, o próprio usuário pode se colocar em situações indesejadas. Este trabalho propõe uma abordagem para apoiar sistemas para Ambientes de Vivência Assistida (casas inteligentes) a identificar e prever situações que coloquem em risco a saúde dos usuários, tornando esses sistemas capazes de reagir frente a uma situação em curso, bem como se antecipar a uma situação de uma forma proativa, tentando eliminar ou suavizar seu impacto. Tal abordagem considera que, ao longo do tempo, o perfil do usuário pode mudar, sendo que diferentes situações podem surgir, as quais podem não terem sido previstas inicialmente na concepção do sistema. Nesse sentido, uma capacidade para a extensibilidade dos sistemas é inserida para identificação, predição e tomada de decisão para agir frente a essas novas situações. A abordagem é verificada através de experimentos empíricos, em um estudo de caso desenvolvido. As situações são simuladas e, posteriormente, detectadas pelo sistema para a escolha das ações mais apropriadas a serem executadas, resultando na utilização de funcionalidades dos dispositivos da residência, assim buscando agir frente à situação de interesse (i.e., indesejada). Nesse estudo de caso, novas situações indesejadas são injetadas no ambiente de vivência do usuário e a característica extensível são aplicadas, fazendo com que o sistema evolua para atuar frente a essas novas situações. / In the future, it is expected that the houses become intelligence environment able of assist the people who inhabit it. Systems developed for theses environments of assisted living could manipulate the dynamism existent inside of houses. These are usually organized according to the user profile, and over the time objects are updated or changed of location, mainly appliances. The user profile may change over time, for instance different diseases can involve the user and making the user’s relationship with household objects change over the time, and when that relation is changed due to cognitive impairments (forgetfulness), sometimes the user can place himself in unwanted situations. To this end, this thesis developed an approach to aid the systems for Ambient Assisted Living (smart houses) to identify and predict situations that endanger the user’s health in their living environment, thus becomes these systems able of react to a current situation, as well as to anticipate a situation in a proactive way, thus trying to eliminate or manipulate its impact. This approach takes into account that over the time the user’s profile can change, and different situations can arise, which maybe not have been initially planned in a first phase of development of the systems, therefore an extensible capability is applied to identify, predict and make decision for act against these new situations. This approach is verified by the developed case study, and situations are simulated for the system detect and choose the most appropriated actions. This approach is verified by the developed case study, and situations are simulated and subsequently detected by the system for choosing the most appropriate actions to be performed, resulting in the consumer of functionalities of the house devices, thus seeking to act against the unwanted situation.
|
203 |
A contribuição da prova de matemática do ENEM para o ensino de probabilidade e estatísticaSerra, Diego da Silva January 2015 (has links)
O ensino de conteúdos de Probabilidade e Estatística na Educação Básica é atualmente um dos desafios do professor de Matemática e há carência de material de apoio didático, principalmente para a preparação dos alunos às questões da prova do Exame Nacional do Ensino Médio (ENEM). O presente estudo teve como objetivo resolver e comentar as questões das provas de Matemática do ENEM realizadas nos anos de 2009 a 2014. Foram analisadas as questões que envolviam conteúdos específicos de Probabilidade e Estatística ou representação gráfica em geral. Nesta análise levamos em consideração a classificação do nível de dificuldade na interpretação da leitura, de gráficos segundo Curcio e tabelas conforme Wainer e também os registros de representação semiótica citados por Duval. Observamos que ao longo do tempo a distribuição dos conteúdos nas provas permanece u, praticamente, estável e ultrapassam 20% a participação das questões da área de interesse deste estudo. As principais competências exploradas nas provas envolviam a leitura direta de dados em gráficos, tabelas ou quadros. As habilidades de resolução de problemas, inferência e aleatoriedade se fizerem presentes. Como produto deste estudo foi desenvolvida uma sequência didática com 15 alunos do Instituto Federal de Educação, Ciências e Tecnologia Sul-Rio-Grandense (IFSul) na cidade de Charqueadas. A abordagem metodológica adotada foi a Engenharia Didática. Os alunos mostraram no pós-teste elevação no índice de acertos e no grau de importância atribuído e reduziram o nível médio de dificuldade percebido nas questões da prova do ENEM-2014. / The Probability and Statistics teaching in Basic Education is, currently, one of the challenges of mathematics teacher and there is a lack of educational support material, mainly to prepare students to do the Exame Nacional do Ensino Médio (ENEM). This study aimed to solve and comment questions of ENEM math tests that carried out from 2009 to 2014. The issues involving specific contents of probability and statistics or graphical representation at large were analyzed. This analysis considered the classification of the level of difficulty on interpretation when reading the graphs according to Curcio, the charts in accordance with Wainer and also the semiotic representation registers cited by Duval. It was observed that over the time, the distribution of content in tests remains, virtually, stable and overtook more than 20% the share of issues related to the interest area of this study. The main competencies explored in the test involved the direct reading of the graphs's data, tables or figures. Problems-solving skills, inference and randomness were observed. As a product of this study was developed a teaching sequence with 15 students of Instituto Federal Sul-Rio-Grandense (IFSul) in the city of Charqueadas. The methodological approach used was the Didactic Engineering. The students showed at posttest an increase in the hit rate and in the degree of importance attributed to this and reduced the average level perceived on the difficulty solving the issues of ENEM 2014.
|
204 |
Segmentação de nome e endereço por meio de modelos escondidos de Markov e sua aplicação em processos de vinculação de registros / Segmentation of names and addresses through hidden Markov models and its application in record linkageRita de Cássia Braga Gonçalves 11 December 2013 (has links)
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação. / The segmentation of names into its constituent parts is a fundamental step in the integration of databases by means of record linkage techniques. This segmentation can be accomplished in different ways. This study aimed to evaluate the use of Hidden Markov Models (HMM) in the segmentation names and addresses of people and the efficiency of the segmentation on the record linkage process. Databases of the Information System on Mortality (SIM in portuguese) and Information Subsystem for High Complexity Procedures (APAC in portuguese) of the state of Rio de Janeiro between 1999 and 2004 were used. A method composed of eight stages has been proposed for segmenting the names and addresses using routines implemented in PL/SQL and a library called JAHMM, a Java implementation of HMM algorithms. A random sample of 100 records in each database was used to verify the correctness of the segmentation process using the hidden Markov model. In order to verify the effect of segmenting the names through the HMM, three record linkage process were applied on a sample of the aforementioned databases, each of them using a different segmentation strategy, namely: 1) dividing the name into first name , last name, and middle initials; 2) division of the name into five parts; 3) segmentation by HMM. The HMM segmentation mechanism was in good agreement when compared to a human observer. The three linkage processes produced very similar results, with the first strategy performing a little better than the others. This study suggests that the segmentation of Brazilian names by means of HMM is not more efficient than the traditional segmentation methods.
|
205 |
Inferência bayesiana para o tamanho de uma população fechada com erros de registros de dados amostraisOda, Fausto Hideki 12 June 2008 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1
2000.pdf: 560704 bytes, checksum: dc5176aa7963d595ab53cc7cd4313b33 (MD5)
Previous issue date: 2008-06-12 / Financiadora de Estudos e Projetos / In this dissertation we determine maximum likelihood and bayesian estimates of the size of a closed population, from two lists of data of elements of the population. It has been supposed that the registers of the individual information in the lists are capable of mismatches and, with relation to the bayesian method, the prioris distributions are noninformative and they have maximum enthropy for the parameters. We also present the bayesian model, witch has considered the numbers elements of the two lists as a latent variable. We compare these models through examples with simulated and real data. / Nesta dissertação determinamos estimativas de máxima verossimilhança e bayesianas do tamanho de uma população fechada, a partir de duas listas de dados de elementos da população. Supomos que os registros das informações individuais nas listas são passíveis de erros e, com relação ao método bayesiano, as distribuições a priori adotadas para os parâmetros são não informativas e de máxima entropia. Apresentamos também um o modelo bayesiano, onde consideramos o número de elementos coincidentes nas duas listas como uma variável latente. Comparamos estes três modelos através de exemplos com dados simulados e reais.
|
206 |
Modelo de mistura com número de componentes desconhecido: estimação via método split-mergeSaraiva, Erlandson Ferreira 30 November 2009 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1
2715.pdf: 5847504 bytes, checksum: 33fc1cbb82d98f376e09b5096d9e726c (MD5)
Previous issue date: 2009-11-30 / Financiadora de Estudos e Projetos / We propose the split-merge MCMC and birth-split-merge MCMC algorithms to analyse mixture models with an unknown number of components. The strategy for splitting is based on data and posterior distribution. Allocation probabilities are calculated based on component parameters which are generated from the posterior distribution given the previously allocated observations. The split-merge proposals are developed to be reversible and are accepted according to Metropolis-Hastings probability. This procedure makes possible a greater change in configuration of latent variables, in a single iteration of algorithms, allow a major exploration of clusters and avoid possible local modes. As an advantage, our approach determines a quick split proposal in contrary to former split procedures which require substantial computational effort. In the birth-split-merge MCMC algorithm, the birth movement is obtained directly from the procedure to update the latent variables and occurs when an observation determine a new cluster. The performance of the method is verified using artificial data sets and two real data sets. The first real data set consist of benchmark data of velocities from distant galaxies diverging from our own while the second is Escherichia Coli bacterium gene expression data. / Propomos uma abordagem bayesiana hierárquica e os algoritmos split-merge MCMC e birth-split-merge MCMC para a estimação conjunta dos parâmetros e do número de componentes de um modelo com mistura de distribuições. A proposta split é baseada nos dados e na distribuição a posteriori dos parâmetros. Nesta proposta, utilizamos probabilidades de alocação que são calculadas de acordo com os parâmetros associados a cada componente, que são gerados da distribuição a posteriori dado as observações previamente alocadas. As propostas split e merge são desenvolvidas para serem reversíveis e são aceitas de acordo com a probabilidade de aceitação de Metropolis-Hastings, para garantir a existência da distribuição estacionária. O algoritmo birth-split-merge apresenta as mesmas propostas split-merge porém este algoritmo permite que ao atualizar uma variável latente, esta seja capaz de determinar o nascimento" (birth) de uma nova componente. Verificamos a performance dos algoritmos propostos utilizando dados artificiais, gerados via simulação, e dois conjuntos de dados reais. O primeiro é o bem conhecido conjunto de dados sobre a velocidade de galáxias e o segundo é um conjunto de dados de expressão gênica. A contribuição teórica presente nesta tese é o desenvolvimento de um pocesso estocástico com base nos movimentos split-merge, que são baseados nos dados. Ou seja, se a amostra é proveniente de uma população composta por k subpopulações, nosso método busca informações sobre as k subpopulações diretamente nos dados observados. Com isso, quando propomos o surgimento de uma nova componente esta sempre tem dados associados, i.e., determina uma partição nos dados observados, e os parâmetros são gerados da distribuição a posteriori, o que não ocorre nos métodos alternativos.
|
207 |
Modelos de sobrevivência na presença de eventos recorrentes e longa duraçãoCobre, Juliana 05 March 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:50Z (GMT). No. of bitstreams: 1
2908.pdf: 926637 bytes, checksum: f4afd93017b2cb0c95459918a00dc65d (MD5)
Previous issue date: 2010-03-05 / Financiadora de Estudos e Projetos / In this thesis it is proposed to analyze recurrent event data, recurrent event data with cure fraction and recurrent event data with censoring and competing causes. For the recurrent event data analysis it is proposed a multiple time scale survival model, which includes several particular cases. For recurrent event data with a cure fraction we consider a multiple time scale survival models embedded on a mixture cure fraction modeling. It is also proposed a general model to survival data in presence of competitive causes. In this case, it is assumed that the number of competitive causes follows a generalized negative binomial distribution. While, for the time of occurrence of each cause, a Weibull and a log-logistic distribution were considered. Simulations studies were conducted for every proposed model in order to analyze the asymptotical properties of the estimation procedures. Both, maximum likelihood and Bayesian approaches were considered for parameter estimation. Real data applications demonstrate de use of the proposed models. / Neste trabalho propomos analisar dados de eventos recorrentes, dados de eventos recorrentes com fração de cura e dados de eventos recorrentes com tempos não observados e causas competitivas, que implicam na possibilidade de cura. Para a análise de dados de evento recorrente propomos um modelo de escala múltipla de tempo, que engloba diversas classes de modelos como casos particulares. Na análise de dados de eventos recorrentes com fração de cura tivemos como base os modelos de escala múltipla de tempo e o modelo de mistura padrão. Também propomos um modelo geral para tratar de dados na presença de causas competitivas. Neste caso, assumimos que o número de causas competitivas segue uma distribuição binomial negativa generalizada e consideramos duas abordagens para o tempo de ocorrência de cada causa, sendo uma delas uma distribuição Weibull e a outra uma distribuição log-logística. Para todos os modelos propostos foram feitos estudos de simulação com o objetivo de analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjuntos de dados reais mostraram a aplicabilidade dos modelos propostos.
|
208 |
Modelo de mistura padrão de longa duração com censura uniforme-exponencialChaves, Josenildo de Souza 25 March 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1
2932.pdf: 982095 bytes, checksum: ce563edc7be982c4acf4c88ef1c3c32b (MD5)
Previous issue date: 2010-03-25 / Financiadora de Estudos e Projetos / In survival data analysis it is common the occurrence of a large number of individuals to the right. This fact can indicate that, in a fraction of the individuals the event of interest will never happen, in other words, a fraction of individuals of the population is cured or immune. This case is not usually taken into account by the usual survival theory that, in general, considers that the individuals at risk will not achieve cure during the follow-up period. Therefore, the survival models with cure fraction, or long-term survival models, have received a lot of attention in recent years. We consider the exponential distribution for the survival time of individuals at risk and the uniform-exponential distribution for the censoring time. In many situations, it is evident that the censoring mechanism is informative. Lagakos & Williams (1978) proposed a class of models where the acting of the censoring mechanism in the survival time is evaluated and Lagakos (1979) presented several situations in which the assumption of noninformative censoring is violated. The main purpose of this work is to verify the impact of informative uniform-exponential censoring in the survival data analysis under the standard mixture model. / Na análise de dados de sobrevivência é frequente a ocorrência de um grande número de indivíduos censurados à direita. Este fato pode ser a indicação de que para uma fração de indivíduos no estudo o evento de interesse nunca vai ocorrer, ou seja, uma fração de indivíduos da população é de curados ou imunes. Este caso não é admitido pela teoria de sobrevivência usual, que em geral considera que todos os indivíduos em risco não terão cura durante o período de acompanhamento. Por isso, os modelos de sobrevivência com fração de cura, ou de longa duração, têm recebido muita atenção em anos recentes. Utilizamos a distribuição exponencial para o tempo de sobrevivência dos indivíduos em risco e a uniforme-exponencial para o tempo de censura. Em muitas situações é evidente que o mecanismo de censura é informativo. Lagakos & Williams (1978) propuseram uma classe de modelos em que o papel do mecanismo de censura em análise de sobrevivência é avaliado e Lagakos (1979) apresentou várias situações em que a suposição de censura não-informativa é violada. Este trabalho tem como objetivo principal verificar o impacto da censura informativa uniforme-exponencial na análise de dados de sobrevivência sob o modelo de mistura padrão.
|
209 |
Modelo de mistura padrão com tempo de falha exponencial e censura informativaFreitas, Luiz Antonio de 25 June 2010 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1
3147.pdf: 1261036 bytes, checksum: 5b16b6f20a2eacfa466c5fdb1e546d3a (MD5)
Previous issue date: 2010-06-25 / Financiadora de Estudos e Projetos / In this work we consider the long-term survival model introduced by Berkson & Gage (1952), for modeling survival data of nonhomogeneous populations, where a subpopulation does not present the event of interest, despite a long follow-up period. The cure rate models presented in the literature usually are developed under the assumption that censorship is noninformative. In the usual survival models Lawless (1982) considers that the variable of censoring is informative if its density function and its distribution function involve some parameter of interest. We propose a new definition of informative censoring in a similar way. This de_nition is extended for the unified long-term survival models (Rodrigues et al., 2009). Moreover, we verify, with simulated data, the impact caused by informative censoring in the coverage probabilities and in the lengths of asymptotic confidence intervals of the parameters of interest. A Bayesian approach with Jeffreys prior is also proposed. An example with real data is analysed. / Neste trabalho consideramos o modelo de sobrevivência de longa duração introduzido por Berkson & Gage (1952), que serve para modelar dados de populações não homogêneas, em que parte da população não apresenta o evento de interesse mesmo após um longo período de observação. Os modelos com fração de cura apresentados na literatura são usualmente desenvolvidos sob a suposição de censura não informativa. Sob o modelo usual de sobrevivência, Lawless (1982) considera que a variável de censura _e informativa se suas funções de densidade e de distribuição acumulada envolvem algum parâmetro de interesse. Neste trabalho enunciamos uma nova definição de censura informativa, que _e similar _a de Lawless (1982). Esta definição é extendida para o modelo unificado de longa duração proposto por (Rodrigues et al., 2009). Também verificamos, com uso de dados simulados, o impacto da censura informativa na cobertura e no comprimento dos intervalos assintóticos dos parâmetros de interesse. Uma abordagem bayesiana com distribuições a priori de Jeffreys é proposta. Um exemplo com dados reais é analisado.
|
210 |
Modelos de regressão binomial correlacionadaPires, Rubiane Maria 18 May 2012 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1
4475.pdf: 1244079 bytes, checksum: 3217620ac6ab16457a5ab67a737b433c (MD5)
Previous issue date: 2012-05-18 / Financiadora de Estudos e Projetos / In this thesis, a class of correlated binomial regression models is proposed. The model is based on the generalized binomial distribution proposed by Luceño (1995) and Luceño & Ceballos (1995). The regression structure is modeled by using four different link functions and the dependence between the Bernoulli trials is modeled by using three different correlation structures. A data augmentation scheme is used in order to overcome the complexity of the mixture likelihood. Frequentist and Bayesian approaches are used in the model fitting process. A diagnostics analysis is provided in order to check the underlying model assumptions and to identify the presence of outliers and/or influential observations. Simulation studies are presented to illustrate the performance of the developed methodology. A real data set is analyzed by using the proposed models. Also the correlated binomial regression models is extended to include measurement error in a predictor. This new class of models is called additive normal structure correlated binomial regression models. The inference process also includes a data augmentation scheme to overcome the complexity of the mixture likelihood. / Nesta tese é proposta uma classe de modelos de regressão binomial correlacionada baseados na distribuição binomial generalizada, proposta por Luceño (1995) e Luceño & Ceballos (1995). A estrutura de regressão é modelada usando diferentes funções de ligação e a relação de dependência entre os ensaios de Bernoulli é modelada usando diferentes estruturas de correlação. Uma estratégia de dados aumentados é utilizada para contornar a complexidade da função de verossimilhança. As abordagens clássica e Bayesiana são utilizadas no processo de ajuste dos modelos propostos. Análise de diagnóstico é desenvolvida com o objetivo de verificar as suposições iniciais do modelo e identificar a presença de outliers e/ou observações influentes. Estudos de simulação e aplicação em dados reais ilustram as metodologias. Propomos também uma nova classe de modelos de regressão binomial correlacionada, denominados modelos de regressão binomial correlacionada aditivo estrutural normal, que envolvem a presença de uma covariável com erro de medida. No processo de estimação para esta nova classe, dados aumentados e aproximação de integral são utilizadas para contornar a complexidade da função de verossimilhança.
|
Page generated in 0.1048 seconds