• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 158
  • 156
  • 30
  • 7
  • 6
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 436
  • 436
  • 176
  • 152
  • 146
  • 115
  • 101
  • 70
  • 54
  • 50
  • 40
  • 36
  • 34
  • 33
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Modelování četností pojistných událostí / Claims count modeling in insurance

Škoda, Štěpán January 2013 (has links)
1 Abstract: The present work investigates techniques of insurence ratemaking accor- ding to the claims counts of policyholders on the basis of information contained in policies. At the beginning, we provide a closer examination of the theory of genera- lized linear models, which have wide range of applications in the field of actuarial modeling. The second chapter presents the basic Poisson regression model as well as some particular verification methods. Specifically, deviance and Wald test could be found here and furthermore also important results for residuals. The third chapter contains information on alternative approaches to modeling the claim frequencies and at the end the GEE method, that can be applied in case of panel data, is de- scribed. The numerical study based on real insurace data in last part of this diploma thesis illustrate's previously described techniques which were obtained with the help of statistical software SAS.
202

Gaining Insight with Recursive Partitioning of Generalized Linear Models

Rusch, Thomas, Zeileis, Achim January 2013 (has links) (PDF)
Recursive partitioning algorithms separate a feature space into a set of disjoint rectangles. Then, usually, a constant in every partition is fitted. While this is a simple and intuitive approach, it may still lack interpretability as to how a specific relationship between dependent and independent variables may look. Or it may be that a certain model is assumed or of interest and there is a number of candidate variables that may non-linearly give rise to different model parameter values. We present an approach that combines generalized linear models with recursive partitioning that offers enhanced interpretability of classical trees as well as providing an explorative way to assess a candidate variable's in uence on a parametric model. This method conducts recursive partitioning of a generalized linear model by (1) fitting the model to the data set, (2) testing for parameter instability over a set of partitioning variables, (3) splitting the data set with respect to the variable associated with the highest instability. The outcome is a tree where each terminal node is associated with a generalized linear model. We will show the method's versatility and suitability to gain additional insight into the relationship of dependent and independent variables by two examples, modelling voting behaviour and a failure model for debt amortization, and compare it to alternative approaches.
203

[en] A BIVARIATE GARMA MODEL WITH CONDITIONAL POISSON DISTRIBUTION / [pt] UM MODELO GARMA BIVARIADO COM DISTRIBUIÇÃO CONDICIONAL DE POISSON

PRISCILLA FERREIRA DA SILVA 02 May 2014 (has links)
[pt] Os modelos lineares generalizados auto regressivos com médias móveis (do inglês GARMA), possibilitam a modelagem de séries temporais de dados de contagem com estrutura de correlação similares aos dos modelos ARMA. Neste trabalho é desenvolvida uma extensão multivariada do modelo GARMA, considerando a especificação de um modelo Poisson bivariado a partir da distribuição de Kocherlakota e Kocherlakota (1992), a qual será denominada de modelo Poisson BGARMA. O modelo proposto é adequado para séries de contagens estacionárias, sendo possível, através de funções de ligação apropriadas, introduzir deterministicamente o efeito de sazonalidade e de tendência. A investigação das propriedades usuais dos estimadores de máxima verossimilhança (viés, eficiência e distribuição) foi realizada através de simulações de Monte Carlo. Com o objetivo de comparar o desempenho e a aderência do modelo proposto, este foi aplicado a dois pares de séries reais bivariadas de dados de contagem. O primeiro par de séries apresenta as contagens mensais de óbitos neonatais para duas faixas de dias de vida. O segundo par de séries refere-se a contagens de acidentes de automóveis diários em dois períodos: vespertino e noturno. Os resultados do modelo proposto, quando comparados com aqueles obtidos através do ajuste de um modelo Gaussiano bivariado Vector Autoregressive (VAR), indicam que o modelo Poisson BGARMA é capaz de capturar de forma adequada as variações de pares de séries de dados de contagem e de realizar previsões com erros aceitáveis, além de produzir previsões probabilísticas para as séries. / [en] Generalized autoregressive linear models with moving average (GARMA) allow the modeling of discrete time series with correlation structure similar to those of ARMA’s models. In this work we developed an extension of a univariate Poisson GARMA model by considerating the specification of a bivariate Poisson model through the distribution presented on Kocherlakota and Kocherlakota (1992), which will be called Poisson BGARMA model. The proposed model not only is suitable for stationary discrete series, but also allows us to take into consideration the effect of seasonality and trend. The investigation of the usual properties of the maximum likelihood estimators (bias, efficiency and distribution) was performed using Monte Carlo simulations. Aiming to compare the performance and compliance of the proposed model, it was applied to two pairs of series of bivariate count data. The first pair is the monthly counts of neonatal deaths to two lanes of days. The second pair refers to counts of daily car accidents in two distinct periods: afternoon and evening. The results of our model when compared with those obtained by fitting a bivariate Vector Autoregressive Gaussian model (VAR) indicates that the Poisson BGARMA model is able to proper capture the variability of bivariate vectors of real time series of count data, producing forecasts with acceptable errors and allowing one to obtain probability forecasts.
204

Um procedimento para seleção de variáveis em modelos lineares generalizados duplos / A procedure for variable selection in double generalized linear models

Cavalaro, Lucas Leite 01 April 2019 (has links)
Os modelos lineares generalizados duplos (MLGD), diferentemente dos modelos lineares generalizados (MLG), permitem o ajuste do parâmetro de dispersão da variável resposta em função de variáveis preditoras, aperfeiçoando a forma de modelar fenômenos. Desse modo, os mesmos são uma possível solução quando a suposição de que o parâmetro de dispersão constante não é razoável e a variável resposta tem distribuição que pertence à família exponencial. Considerando nosso interesse em seleção de variáveis nesta classe de modelos, estudamos o esquema de seleção de variáveis em dois passos proposto por Bayer e Cribari-Neto (2015) e, com base neste método, desenvolvemos um esquema para seleção de variáveis em até k passos. Para verificar a performance do nosso procedimento, realizamos estudos de simulação de Monte Carlo em MLGD. Os resultados obtidos indicam que o nosso procedimento para seleção de variáveis apresenta, em geral, performance semelhante ou superior à das demais metodologias estudadas sem necessitar de um grande custo computacional. Também avaliamos o esquema para seleção de variáveis em até \"k\" passos em um conjunto de dados reais e o comparamos com diferentes métodos de regressão. Os resultados mostraram que o nosso procedimento pode ser também uma boa alternativa quando possui-se interesse em realizar previsões. / The double generalized linear models (DGLM), unlike the generalized linear model (GLM), allow the fit of the dispersion parameter of the response variable as a function of predictor variables, improving the way of modeling phenomena. Thus, they are a possible solution when the assumption that the constant dispersion parameter is unreasonable and the response variable has distribution belonging to the exponential family. Considering our interest in variable selection in this class of models, we studied the two-step variable selection scheme proposed by Bayer and Cribari-Neto (2015) and, based on this method, we developed a scheme to select variables in up to k steps. To check the performance of our procedure, we performed Monte Carlo simulation studies in DGLM. The results indicate that our procedure for variable selection presents, in general, similar or superior performance than the other studied methods without requiring a large computational cost. We also evaluated the scheme to select variables in up to \"k\" steps in a set of real data and compared it with different regression methods. The results showed that our procedure can also be a good alternative when the interest is in making predictions.
205

[en] MODELING THE IMPROVEMENT OF MORTALITY RATES ON LIFE TABLES CONSTRUCTION / [pt] TÉCNICAS DE MODELAGEM DO IMPROVEMENT PARA CONSTRUÇÃO DE TÁBUAS GERACIONAIS

RAQUEL RODRIGUES SANTOS 06 March 2008 (has links)
[pt] Melhorias da mortalidade vêm sendo observadas em praticamente todo o mundo desde o início do século XX e impactam diretamente o resultado dos cálculos atuariais. A incorporação das tendências futuras da mortalidade no cálculo atuarial é possível através do uso de tábuas de mortalidade geracionais, que fornecem probabilidades de morte baseadas não só na idade x do indivíduo, como também no tempo t. O estudo aborda técnicas para projeção da mortalidade e consequente determinação dos fatores de improvement, utilizados para tornar uma tábua de mortalidade na forma geracional. As metodologias Lee-Carter e modelos lineares generalizados são utilizadas para construir previsões de mortalidade com base na experiência de mortalidade da população da Inglaterra e País de Gales da última metado do século passado. / [en] By the beginning of the 20th century, improvement on mortality started rising in many countries and this has a direct impact on the results of actuarial calculus. The trend of mortality can be incorporated into actuarial calculus through the use of generation mortality tables, that consider not only the age x of the individual but also the time t. This study explores techniques to project the mortality and the improvement factors used to turn a mortality table into a generational one. The methodologies of Lee-Carter and generalized linear models were used to forecast mortality by using the England and Wales mortality experience of the past half century.
206

[en] PERSISTENCY ANALYSIS OF PARTICIPANTS OF PENSION PLANS / [pt] ANÁLISE DE PERSISTÊNCIA DE PARTICIPANTES EM PLANOS DE PREVIDÊNCIA

ROBERTA DE SOUZA CHUN 26 November 2007 (has links)
[pt] O tema central deste trabalho é apresentar modelos de persistência. As probabilidades de persistência na carteira de um produto de determinada empresa de seguros e previdência serão estudadas de forma agregada, de tal forma que se torna possível a elaboração de outros estudos, como por exemplo, de análise de lucratividade, mesmo com poucos dados, o que inviabiliza a elaboração de tábuas de múltiplos decrementos. Serão avaliadas as possíveis causas de saídas de acordo com as características do plano. O desenvolvimento dos modelos tomam por base dados em forma de triângulo, técnica normalmente utilizada para cálculo de provisões de seguros. / [en] The objective of this work is to present persistency models. The probabilities of remaining in a Insurance and Pension company portfolio will be studied in a aggregate way, in this way it is possible to develop another results such as profitability, even though, there is poor data, what turns impossible to build multiple decrement tables. The possible lapses causes will be evaluated according to the plan. The models development is based on triangular data, this technique is usual on claims reserving.
207

Ajuste de modelos de degradabilidade ruminal por meio da técnica de produção de gases utilizando as metodologias clássica e bayesiana / Adjustment of ruminal degradability models applying the technique of gas production by using classical and Bayesian methodologies

Souza, Gabriel Batalini de 15 March 2013 (has links)
Dado o poder agropecuário nacional e sabendo que a pastagem tem papel fundamental na nutrição animal, torna-se primordial o estudo dos mecanismos da digestão ruminal das forragens, para um aproveitamento mais racional das pastagens pelos animais, propiciando uma fermentação ruminal ótima e possibilitando o balanceamento de rações de forma mais adequada. Esta abordagem é possível por meio dos modelos de degradação ruminal, que são classificados como modelos de regressão não lineares. Neste trabalho são abordadas as metodologias clássica e bayesiana para ajustar os modelos que descrevem a cinética de degradação ruminal por meio da técnica de produção de gases. Na abordagem clássica foram considerados os modelos não sigmoidal proposto por Orskov&McDonald (1979), o Logístico proposto por Schofield (1994) e o Gompertz proposto por Lavrencic (1997), considerando a necessidade de fatores autorregressivos de primeira e segunda ordem mediante o teste de razão de verossimilhança (TRV); os modelos foram avaliados por meio dos critérios de Akaike (AIC), coeficiente de determinação ajustado (R2 aj) e quadrado médio residual (QMR). Em uma segunda etapa realizou-se o ajuste do modelo não sigmoidal sem fator autorregressivo utilizando a abordagem bayesiana, em que a condição de convergência das cadeias foi analisada por meio dos critérios de Geweke (1992), Heidelberger&Welch (1993), Raftery& Lewis (1992) e o Erro de Monte Carlo (EMC). Dentre os modelos utilizados, o que melhor se ajustou aos dados analisados foi o modelo não sigmoidal proposto por Orskov e McDonald (1979), sem o fator autorregressivo, obtendo estimativas condizentes com a realidade do fenômeno. Os resultados obtidos por meio da abordagem bayesiana também foram satisfatórios, mostrando que a técnica, apesar de pouco difundida em estudos de degradação ruminal é uma metodologia bastante viável e tem muito a agregar em estudos da área. / Given the national agricultural power and knowing that grazing plays an important role in animal nutrition, it becomes primordial to study the mechanisms of ruminal digestion of forages, for a more rational use of pastures by the animals, providing an optimal rumen fermentation and allowing a more adequate and balanced feed. This approach is possible by using the rumen degradation models, which are classified as non-linear regression models. This essay discusses the classical and Bayesian methods to adjust the models that describe the kinetics of degradation by rumen gas production technique. In the classical approach, the \"Non Sigmoidal models\", proposed by Orskov& McDonald (1979), the \"Logistic\", proposed by Schofield (1994), and \"Gompertz\", proposed by Lavrencic (1997), were considered, taking into account the need for autoregressive factors of first and second order, by the \"likelihood ratio test \" (TRV). These models were evaluated using the Akaike criteria (AIC), the coefficient of determination adjusted (R2aj) and \"the residual average square\" (QMR). In the following stage, the adjustment of the non sigmoidal model without the autoregressive factor were performed, using the Bayesian approach. For these matters, the condition of the convergence of chains was analyzed using Geweke (1992), Heidelberger & Welch (1993), Raftery& Lewis (1992) and Monte Carlo error(EMC) criteria.Among the models used, the one that best settle to the data analyzed was the non sigmoidal model without the autoregressive factor, proposed by Orskov and McDonald (1979), obtaining consistent estimates with the reality of the phenomenon. The results obtained through the Bayesian approach were also satisfactory, showing that the technique, although less diffused in studies of rumen methodology, is very viable and has a lot to add in these area studies.
208

Comparação de Métodos Diretos e de Dois-Passos na identificação de sistemas em malha fechada. / Comparison between direct and two-step methods in closed-loop system identification.

Alves, Vitor Alex Oliveira 22 February 2011 (has links)
A Identificação de Sistemas em Malha Fechada possui considerável apelo prático, uma vez que oferece maior segurança durante a coleta experimental de dados e ao mesmo tempo, em linhas gerais, proporciona a construção de modelos mais adequados para servir de base ao projeto de sistemas de controle. Esta Tese apresenta, como um de seus principais objetivos, a comparação dos Métodos Diretos aplicados à Identificação em Malha Fechada com a classe dos Métodos de Dois-Passos, que se enquadram na abordagem de Identificação Conjunta Entrada/Saída. Complementando esta comparação, propõe-se um novo algoritmo em Dois-Passos, a Dupla Filtragem. As propriedades de convergência deste método são analisadas em detalhe. O desempenho alcançado pelos modelos identificados pelos Métodos Diretos e com o uso dos Métodos de Dois-Passos aqui considerados a saber, Filtragem-u (VAN DEN HOF; SCHRAMA, 1993), Filtragem-y (HUANG; SHAH, 1997) e Dupla Filtragem são comparados em uma abordagem estatística por meio da aplicação de Simulações de Monte Carlo. Também se propõe uma variante ao método da Filtragem-u, proporcionando duas formas distintas de descrever a função de sensibilidade da saída associada ao processo sob estudo (FORSSELL; LJUNG, 1999). Os critérios de comparação de desempenho adotados nesta tese incluem validações dos modelos identificados em simulações livres (operação em malha aberta), em que os objetos de análise são respostas a pulsos retangulares e, com maior ênfase, validações em malha fechada que utilizam o mesmo controlador instalado no sistema sob estudo. Nesta última situação são empregados sinais de excitação de mesma natureza daqueles adotados nos ensaios de identificação, porém com diferentes realizações. Cada uma dessas validações é acompanhada de seu respectivo fit (LJUNG,1999), índice de mérito que mede a proximidade entre as respostas temporais do sistema físico e de seu modelo matemático. Também são consideradas as respostas em frequência do processo, que constituem a base para a determinação do limite máximo para a incerteza associada ao modelo (ZHU, 2001). Tomando como fundamento tais limites máximos de incerteza, em conjunto com as respostas em frequência dos modelos identificados, é possível associar graduações a esses modelos (A, B, C, ou D). Desta forma, esta tese utiliza índices de mérito fundamentados em ambas as respostas temporais e em frequência. Aspectos relativos à influência da amplitude e do tipo de sinal de excitação aplicado à malha, bem como à relação sinal-ruído estabelecida no sistema, são analisados. Também se investiga a relação entre a qualidade do modelo identificado e o ponto de aplicação do sinal de excitação: no valor de referência da malha de controle ou na saída do controlador. Por fim, verifica-se como a sintonia do controlador afeta o modelo identificado. Todas as simulações realizadas utilizam sinais de perturbação do tipo quase não- estacionário, típicos da indústria de processos (ESMAILI et al., 2000). Os resultados indicam que os Métodos Diretos são mais precisos quando a estrutura de modelo e ordem adotadas são idênticas àquelas do processo real. No entanto, os Métodos de Dois-Passos são capazes de fornecer modelos muito confiáveis mesmo quando a estrutura e ordem do modelo diferem daquelas do processo sob estudo. / Closed-loop System Identification has considerable practical appeal, since it provides increased security during the collection of experimental data and, at the same time, provides the construction of suitable models for the design of high performance control systems. This thesis presents, as one of its main objectives, a thorough comparison between Direct Methods (applied to the closed-loop identification) and Two-Step Methods. The latter ones belong to the Joint Input/Output approach. Complementing this comparison, a new two-step algorithm the Double Filtering is proposed. The convergence properties of this method are analyzed in detail. The performance achieved by the models identified by Direct and Two-Step methods is compared in a statistical approach through Monte Carlo simulations. The Two-Step methods considered in this thesis are the u-Filtering (VAN DEN HOF; SCHRAMA, 1993), the y-Filtering (HUANG; SHAH, 1997) and the Double Filtering. A variant of the u-Filtering method is proposed, providing two distinct ways of describing the output sensitivity function associated with the process under study (FORSSELL; LJUNG, 1999). The performance comparison criteria adopted in this thesis include free-run model validations (open-loop operation), in which rectangular pulses responses are analyzed. Greater emphasis is given to closed loop model validation, which uses the same controller installed in the system under study. This type of validation employs excitation signals similar to those adopted in the identification tests, but with different realizations. Each of these validations is accompanied by its corresponding fit (Ljung, 1999), a merit index that measures the proximity between the time responses of the physical system and its mathematical model. Process frequency responses are also considered, since they form the basis for determining the model uncertainty upper-limit or upper-bound error (ZHU, 2001). The upper- bounds, along with the frequency responses of each identified model, provides ranks (A, B, C, or D) for these models. Therefore, this thesis uses merit indexes based on both time and frequency responses. It is analyzed how the type and magnitude (or equivalently, the signal-to-noise ratio) of the excitation signal applied to the loop impacts the accuracy of the identified models. This work also investigates the relationship between the accuracy of the identified models and the point of application of the excitation signal: the reference of the control loop or the controller output. Finally, it is checked how the controller tuning affects the identified models. All simulations employ quasi non-stationary disturbance signals, typical of the process industries (ESMAILI et al., 2000). The results indicate that Direct Methods are more accurate when the model structure and order adopted in the identification are identical to those of the actual process. However, the Two-Step Methods are capable of providing very reliable models even when the adopted structure and order differ from those of the process under study.
209

Perda de valor das empresas listadas na Bovespa durante a crise financeira de 2008: uma análise sob a perspectiva da modelagem hierárquica linear / Decline in stock prices of firms listed in Bovespa during the 2008 financial crises: an analysis from the perspective of the Hierarchical Linear Modeling

Serra, Ricardo Goulart 31 August 2011 (has links)
Raros autores estudam as características das empresas e dos seus setores de atuação na explicação dos retornos das ações em períodos exclusivamente de crise. A escassez de trabalhos em períodos de crise pode ser considerada uma importante lacuna na literatura acadêmica, tendo em vista que as perdas são substanciais nestes períodos. O objetivo do presente trabalho é identificar características das empresas e dos seus setores de atuação que expliquem a queda dos preços das ações das empresas listadas na Bovespa durante a crise financeira de 2008. O período de crise escolhido começa em 20 de maio de 2008 (pico do Ibovespa) e termina em 27 de outubro de 2008 (vale do Ibovespa), com queda de 60%. São estudadas 135 empresas não financeiras, com informações disponíveis e eliminados outliers. Utilizou-se neste trabalho uma técnica multinível, Modelos Hierárquicos Lineares, para endereçar claramente a interação entre os dois níveis envolvidos na análise: empresas (1º nível: objeto) e setores (2º nível: contexto). Dada a pouca utilização desta técnica em estudos em administração, sua aplicação também é um diferencial do trabalho. Os resultados indicam a pertinência da escolha por esta técnica, pois se identificou que a variabilidade total dos retornos tem origem (i) em características das empresas (1º nível), correspondendo a 76,9% da variabilidade total e (ii) em características dos setores (2º nível), correspondendo a 23,1% da variabilidade total. O modelo final explica 39,9% da variabilidade total. As características das empresas que têm influência significativa no retorno das ações são: livro / mercado (valor contábil do patrimônio líquido / valor de mercado do patrimônio líquido), tamanho e iliquidez. As características dos setores que têm influência significativa no retorno das ações das empresas são: beta desalavancado, crescimento histórico da receita e ter ou não a tarifa regulada. Por fim, identificou-se que a característica setorial beta desalavancado modera a influência da característica da empresa livro / mercado no retorno das ações das empresas. Em outras palavras, o coeficiente angular da variável livro / mercado é diferente para os diversos setores, sendo que o impacto da variável livro / mercado no retorno é menos acentuado para empresas de setores com alto beta desalavancado. / Few authors study the role of firms and industries\' characteristics in explaining stock\'s returns exclusively in periods of crisis. The scarcity of such studies can be considered an important gap in the academic literature, given the substantial losses that one can experience during such periods. The objective of this study is to identify firms and industries\' characteristics that explain the decline in prices of stocks of companies listed in Bovespa during the 2008 financial crisis. The crisis period chosen begins on May 20, 2008 (Ibovespa\'s peak) and ends on October 27, 2008 (Ibovespa\'s valley), representing a decline of 60%. 135 non-financial companies, with information available and after the exclusion of outliers were studied. A multilevel technique was adopted: Hierarchical Linear Models, to clearly address the interaction between the two levels involved in the analysis: firms (1st level: object) and industries (2nd level: context). Given the low utilization of this technique in studies in business administration, its adoption is also a differential of this study. The results indicate the relevance of the technique\'s choice. It was identified that (i) 76.9% of the total variability is due to firms\' characteristics and (ii) 23.1% of the total variability is due to industries\' characteristics. The final model explains 39.9% of the total variability. Firms\' characteristics that have significant influence on stock returns are: book / market (book value of equity / market value of equity), size and illiquidity. Industries\' characteristics that have significant influence on stock returns are: unlevered beta, historical sales growth and whether or not the industry has a regulated tariff. Finally, it was found that industries\' characteristic unlevered beta moderates the influence of the firms\' characteristic book / market in stock returns. In other words, slope coefficient for the firms\' characteristic book / market is different between industries, with the impact of the variable book / market on stock return being less pronounced for companies in sectors with high unlevered beta.
210

Uma modelagem estatística aplicada ao controle biológico da praga que ataca a cultura do algodão / An statistical model applied to the biological control of the pest that attacks the cotton crop

Taveira, Abraão de Paula 02 October 2017 (has links)
As distribuições de probabilidade gama, normal inversa, Weibull, log-normal e exponencial são uma boa alternativa para modelar observações associadas ao tempo, pois, em geral, a variável tempo possui assimetria à esquerda ou à direita, o que caracteriza as distribuições citadas anteriormente. O objetivo deste trabalho constitui-se em avaliar o comportamento dos predadores, Euborellia annulipes (\"Tesourinha\") e Harmonia axyridis (\"Joaninha\"), em relação à praga conhecida como Aphis gossypii (\"Pulgão\"). Outra pretensão deste trabalho é a aplicação da modelagem estatística, dando ênfase as técnicas dos modelos lineares generalizados e análise de sobrevivência, as quais foram aplicadas aos dados provenientes de um experimento, instalado no Laboratório de Ecologia de Insetos da Escola Superior de Agricultura \"Luiz de Queiroz\" (ESALQ). O experimento foi composto por 21 repetições, sendo cada repetição efetuada por meio de uma placa de Petri medido 60 X 15 mm. Em cada placa foi liberado um pulgão adulto áptero na parte central, tendo três pesquisadores responsáveis por observar a varável definida como tempo de ataque. Inicialmente, foram ajustados os modelos com distribuição gama e diferentes funções de ligação, e o modelo com a distribuição normal inversa com função de ligação canônica. Esses modelos foram ajustados aos dados desconsiderando as censuras, em que por meio do gráfico half-normal plot e testes de hipóteses, verificou que o modelo com a distribuição normal inversa com função de ligação canônica, apresentou o melhor ajuste. Posteriormente, foram ajustados os modelos exponencial, Weibull e log-normal para os dados considerando as censuras, os quais foram avaliados mediante o teste de razão de verossimilhança, sendo o modelo log-normal mais apropriado aos dados. / The probability density function of gamma, inverse normal, Weibull, log-normal and exponential distributions are good alternatives for modelling observations related with time, since, in general, the time variable has left or right asymmetry, which characterizes the distributions previously mentioned . The aim of this work is the application of statistical modeling, emphasizing the techniques of generalized linear models and survival analysis, which were applied to data from an experiment, installed in the Laboratory of Insect Ecology of the \"Luiz de Queiroz\" College of Agriculture (ESALQ), in which the goal of this experiment was to evaluate the behavior of predators, Euborellia annulipes (\"ring-legged earwig\") and Harmonia axyridis (\"Ladybird\"), in relation to the pest known as Aphis. The experiment was composed of 21 replicates, each replicate being done by means of a petri dish measured 60 X 15 mm. On each plate an adult aphid was released in the central part, with three researchers responsible. The model with distribution was used to determine the variance, which was defined as the attack time. Normal distribution with canonical link function. These models were adjusted to the data disregarding censorship, in which through the half-normal plot and hypothesis tests, verified that the model with the normal inverse distribution with canonical link function, presented the best fit. Subsequently, the exponential, Weibull and log-normal models were adjusted for the data considering the censorship, which were evaluated by the likelihood ratio test, the log-normal model being more appropriate to the data.

Page generated in 0.0652 seconds