Spelling suggestions: "subject:"estatistica -"" "subject:"statistica -""
601 |
Combinação de classificadores para inferência dos rejeitadosRocha, Ricardo Ferreira da 16 March 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1
4300.pdf: 2695135 bytes, checksum: c7742258a75f77aa35ccb54abc3439fe (MD5)
Previous issue date: 2012-03-16 / Financiadora de Estudos e Projetos / In credit scoring problems, the interest is to associate to an element who request some kind of credit, a probability of default. However, traditional models uses samples biased because the data obtained from the tenderers has only clients who won a approval of a request for previous credit. In order to reduce the bias sample of these models, we use strategies to extract information about individuals rejected to be able to infer a response, good or bad payer. This is what we call the reject inference. With the use of these strategies, we also use the bagging technique (bootstrap aggregating), which consist in generate models based in some bootstrap samples of the training data in order to get a new predictor, when these models is combined. In this work we will discuss about some of the combination methods in the literature, especially the method of combination by logistic regression, although little used but with interesting results.We'll also discuss some strategies relating to reject inference. Analyses are given through a simulation study, in data sets generated and real data sets of public domain. / Em problemas de credit scoring, o interesse é associar a um elemento solicitante de algum tipo de crédito, uma probabilidade de inadimplência. No entanto, os modelos tradicionais utilizam amostras viesadas, pois constam apenas de dados obtidos dos proponentes que conseguiram a aprovação de uma solicitação de crédito anterior. Com o intuito de reduzir o vício amostral desses modelos, utilizamos estratégias para extrair informações acerca dos indivíduos rejeitados para que nele seja inferida uma resposta do tipo bom/- mau pagador. Isto é o que chamamos de inferência dos rejeitados. Juntamente com o uso dessas estratégias utilizamos a técnica bagging (bootstrap aggregating ), que é baseada na construção de diversos modelos a partir de réplicas bootstrap dos dados de treinamento, de modo que, quando combinados, gera um novo preditor. Nesse trabalho discutiremos sobre alguns dos métodos de combinação presentes na literatura, em especial o método de combinação via regressão logística, que é ainda pouco utilizado, mas com resultados interessantes. Discutiremos também as principais estratégias referentes à inferência dos rejeitados. As análises se dão por meio de um estudo simulação, em conjuntos de dados gerados e em conjuntos de dados reais de domínio público.
|
602 |
Modelagem de fraude em cartão de créditoMoraes, Dalila de 02 September 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1
4329.pdf: 1652803 bytes, checksum: aad7f31afeb38bcd450c35fd9ed227be (MD5)
Previous issue date: 2008-09-02 / Universidade Federal de Sao Carlos / The transactions volume increase brought the fraud increase, which result in a annual loss of billions of reais to all .nancial institutions in the world. Therefore, it.s very important the development of detection methods and fraud prevention. The di¢ cult in modeling this kind of data due the fact the data sets are extremely unbalanced. In this work, a bounded logit model will be proposed for fraud detection. It will also be discussed state- dependent sampling and compared with logit and bounded logit model performances. Two applications, one with a simulated data set and another with a real data set, will be presented. The Bayesian approach to these models will also be discussed. The data set analyses will be implemented in SAS and Winbugs software. / O aumento no volume de transações com cartões de crédito trouxe como consequência o aumento do número de fraudes, o que acarreta em uma perda de bilhões de reais anu- almente à todas instituições .nanceiras do mundo. Com isso é muito importante que metodologias de detecção e prevenção à fraude sejam desenvolvidas. A grande di.cul- dade na modelagem deste tipo de dados é que estes são extremamentes desbalanceados. Neste presente trabalho, será proposto o modelo logito limitado na detecção de fraude. Também será discutido as amostras do tipo state-dependent e comparado os desempenhos dos modelos logito e logito limitado. Duas aplicações, uma com um conjunto de dados simulados e outra com um conjunto de dados reais, serão apresentadas. A abordagem bayesiana para estes modelos também será discutida. As análises dos conjuntos de dados serão realizadas nos softwares SAS e Winbugs.
|
603 |
Distribuição COM-Poisson na análise de dados de experimentos de quimioprevenção do câncer em animaisRibeiro, Angélica Maria Tortola 16 March 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1
4336.pdf: 1594022 bytes, checksum: ff2370b4d516b9cdf6dd6da3be557c42 (MD5)
Previous issue date: 2012-03-16 / Financiadora de Estudos e Projetos / Experiments involving chemical induction of carcinogens in animals are common in the biological area. Interest in these experiments is, in general, evaluating the chemopreventive effect of a substance in the destruction of damaged cells. In this type of study, two variables of interest are the number of induced tumors and their development times. We explored the use of statistical model proposed by Kokoska (1987) for the analysis of experimental data of chemoprevention of cancer in animals. We flexibility the Kokoska s model, subsequently used by Freedman (1993), whereas for the variable number of tumors induced Conway-Maxwell Poisson (COM-Poisson) distribution. This distribution has demonstrated efficiency due to its great flexibility, when compared to other discrete distributions to accommodate problems related to sub-dispersion and super-dispersion often found in count data. The purpose of this paper is to adapt the theory of long-term destructive model (Rodrigues et al., 2011) for experiments chemoprevention of cancer in animals, in order to evaluate the effectiveness of cancer treatments. Unlike the proposed Rodrigues et al. (2011), we formulate a model for the variable number of detected malignant tumors per animal, assuming that the probability of detection is no longer constant, but dependent on the time step. This is an extremely important approach to cancer chemoprevention experiments, because it makes the analysis more realistic and accurate. We conducted a simulation study, in order to evaluate the efficiency of the proposed model and to verify the asymptotic properties of maximum likelihood estimators. We also analyze a real data set presented in the article by Freedman (1993), to demonstrate the efficiency of the COM-Poisson model compared to results obtained by him with the Poisson and Negative Binomial distributions. / Experimentos que envolvem a indução química de substâncias cancerígenas em animais são comuns na área biológica. O interesse destes experimentos é, em geral, avaliar o efeito de uma substância quimiopreventiva na destruição das células danificadas. Neste tipo de estudo, duas variáveis de interesse são o número de tumores induzidos e seus tempos de desenvolvimento. Exploramos o uso do modelo estatístico proposto por Kokoska (1987) para a análise de dados de experimentos de quimioprevenção de câncer em animais. Flexibilizamos o modelo de Kokoska (1987), posteriormente utilizado por Freedman (1993), considerando para a variável número de tumores induzidos a distribuição Conway-Maxwell Poisson (COM-Poisson). Esta distribuição tem demonstrado eficiência devido à sua grande flexibilidade, quando comparada a outras distribuições discretas, para acomodar problemas relacionados à subdispersão e sobredispersão encontrados frequentemente em dados de contagem. A proposta deste trabalho consiste em adaptar a teoria de modelo destrutivo de longa duração (Rodrigues et al., 2011) para experimentos de quimioprevenção do câncer em animais, com o propósito de avaliar a eficiência de tratamentos contra o câncer. Diferente da proposta de Rodrigues et al. (2011), formulamos um modelo para a variável número de tumores malignos detectados por animal, supondo que sua probabilidade de detecção não é mais constante, e sim dependente do instante de tempo. Esta é uma abordagem extremamente importante para experimentos quimiopreventivos de câncer, pois torna a análise mais realista e precisa. Realizamos um estudo de simulação com o propósito de avaliar a eficiência do modelo proposto e verificar as propriedades assintóticas dos estimadores de máxima verossimilhança. Analisamos também um conjunto de dados reais apresentado no artigo de Freedman (1993), visando demonstrar a eficiência do modelo COM-Poisson em relação aos resultados por ele obtidos com as distribuições Poisson e Binomial Negativa.
|
604 |
Redes probabilísticas de K-dependência para problemas de classificação binária / Redes probabilísticas de K-dependência para problemas de classificação bináriaSouza, Anderson Luiz de 28 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1
4338.pdf: 1335557 bytes, checksum: 8e0bef5711ff8c398be194e335deecec (MD5)
Previous issue date: 2012-02-28 / Universidade Federal de Sao Carlos / Classification consists in the discovery of rules of prediction to assist with planning and decision-making, being a continuously indispensable tool and a highly discussed subject in literature. As a special case in classification, we have the process of credit risk rating, within which there is interest in identifying good and bad paying customers through binary classification methods. Therefore, in many application backgrounds, as in financial, several techniques can be utilized, such as discriminating analysis, probit analysis, logistic regression and neural nets. However, the Probabilistic Nets technique, also known as Bayesian Networks, have showed itself as a practical convenient classification method with successful applications in several areas. In this paper, we aim to display the appliance of Probabilistic Nets in the classification scenario, specifically, the technique named K-dependence Bayesian Networks also known as KDB nets, as well as compared its performance with conventional techniques applied within context of the Credit Scoring and Medical diagnosis. Applications of the technique based in real and artificial datasets and its performance assisted by the bagging procedure will be displayed as results. / A classificação consiste na descoberta de regras de previsão para auxílio no planejamento e tomada de decisões, sendo uma ferramenta indispensável e um tema bastante discutido na literatura. Como caso especial de classificação, temos o processo de avaliação de risco de crédito, no qual temos o interesse de identificar clientes bons e maus pagadores através de métodos de classificação binária. Assim, em diversos enredos de aplicação, como nas financeiras, diversas técnicas podem ser utilizadas, tais como análise discriminante, análise probito, regressão logística e redes neurais. Porém, a técnica de Redes Probabilísticas, também conhecida como Redes Bayesianas, tem se mostrado um método prático de classificação e com aplicações bem sucedidas em diversos campos. Neste trabalho, visamos exibir a aplicação das Redes Probabilísticas no contexto de classificação, em específico, a técnica denominada Redes Probabilísticas com K-dependência, também conhecidas como redes KDB, bem como comparar seu desempenho com as técnicas convencionais aplicadas no contexto de Credit Scoring e Diagnose Médica. Exibiremos como resultado aplicações da técnica baseadas em conjuntos de dados reais e artificiais e seu desempenho auxiliado pelo procedimento de bagging.
|
605 |
Análise estatística do modelo de Nelson e SiegelBrocco, Marcelo Bertini 21 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1
5090.pdf: 2622386 bytes, checksum: efb13371116d8185c23b86079eb4237c (MD5)
Previous issue date: 2013-03-21 / Financiadora de Estudos e Projetos / The present paper studies the yield curve, an important tool for financial decisions, due to its fundamental role in the implementation and evaluation of monetary policies by the central banks. It also shows market perspectives in relation to the future development of interest rates, inflation and economical activities. Using an adequate model and a reasoned assessment of its parameters enables us to adjust the curve as far as possible to the real curve and hence obtain most precise and trustful results. These results were acquired by studying a model which was developed in 1987 by Nelson and Siegel and used to draw up the yield curve. Considering the model s limitations, diferent methods were used to attain the estimated parameters, such as Ordinary Least Squares, Maximum Likelihood and Bayesian Inference in the static version. The Nelson-Siegel model is widely used in Brazil and in the rest of the world, due to its economical idea, easy implementation and eficient adjustment into diferent formats that the yield curve is able to deal with. By considering the restrictions of the model, we found estimations for the parameters of the model safer than other and besides, the main point of this work is an estimation form of parameters of time together with others parameters of the model without considering one fixed value for it. / O objeto de estudo deste trabalho é a curva de taxas de juros, uma importante ferramenta utilizada em decisões financeiras, pois desempenha um papel fundamental na implementação e avaliação de políticas monetárias pelos bancos centrais. Assim sendo, indica as expectativas do mercado quanto ao comportamento futuro das taxas de juros, inflação e atividade econômica. A utilização de um bom modelo e uma boa estimação dos parâmetros do mesmo nos permite representar a curva ajustada o mais próximo da curva real, dessa forma, conseguimos encontrar resultados mais precisos e confiáveis. Neste trabalho estudamos o modelo utilizado para construção das curvas de taxas de juros desenvolvido em 1987 por Nelson e Siegel (1987) e métodos, considerando as restrições do modelo, para obtermos as estimativas dos parâmetros (Mínimos Quadrados Ordinários, Máxima Verossimilhança e Inferência Bayesiana) na vers~ao estática. O modelo de Nelson e Siegel apresenta grande aplicação tanto no Brasil quanto no restante do mundo, pois ele apresenta como características seu caráter parcimonioso nos parâmetros, sua fácil implementação e ajuste eficiente nos diversos formatos que a curva de taxas de juros pode assumir. Por considerarmos as restrições do modelo, encontramos estimativas para os parâmetros do modelo mais seguras e além disso, como principal contribuição deste trabalho, temos uma forma de estimação do parâmetro de tempo conjuntamente com os demais parâmetros do modelo, sem considerar apenas um valor fixo para ele.
|
606 |
Análise da qualidade do ar : um estudo de séries temporais para dados de contagemSilva, Kelly Cristina Ramos da 30 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1
5213.pdf: 2943691 bytes, checksum: 6d301fea12ee3950f36c4359dd4a627e (MD5)
Previous issue date: 2013-04-30 / Financiadora de Estudos e Projetos / The aim of this study was to investigate the monthly amount of unfavourable days to pollutant dispersion in the atmosphere on the metropolitan region of S ão Paulo (RMSP). It was considered two data sets derived from the air quality monitoring on the RMSP: (1) monthly observations of the times series of annual period and (2) monthly observations of the times series of period form May to September. It was used two classes of models: the Vector Autoregressive models (VAR) and Generalized Additive Models for Location, Scale and Shape (GAMLSS). The techniques presented in this dissertation was focus in: VAR class had emphasis on modelling stationary time series; and GAMLSS class had emphasis on models for count data, like Delaporte (DEL), Negative Binomial type I (NBI), Negative Binomial type II (NBII), Poisson (PO), inflated Poisson Zeros (ZIP), Inverse Poisson Gaussian (PIG) and Sichel (SI). The VAR was used only for the data set (1) obtaining a good prediction of the monthly amount of unfavourable days, although the adjustment had presented relatively large residues. The GAMLSS were used in both data sets, and the NBII model had good performance to data set (1), and ZIP model for data set (2). Also, it was made a simulation study to better understanding of the GAMLSS class for count data. The data were generated from three different Negative Binomial distributions. The results shows that the models NBI, NBII, and PIG adjusted well the data generated. The statistic techniques used in this dissertation was important to describe and understand the air quality problem. / O objetivo deste trabalho foi investigar a quantidade mensal de dias desfavoráveis à dispersão de poluentes na atmosfera da região metropolitana de São Paulo (RMSP). Foram considerados dois conjuntos de dados provenientes do monitoramento da qualidade do ar da RMSP: (1) um contendo observações mensais das séries temporais do período anual e (2) outro contendo observações mensais das séries temporais do período de maio a setembro. Foram utilizadas duas classes de modelos: os Modelos Vetoriais Autorregressivos (VAR) e os Modelos Aditivos Generalizados para Locação, Escala e Forma (GAMLSS), ressaltando que as técnicas apresentadas nessa dissertação da classe VAR têm ênfase na modelagem de séries temporais estacionárias e as da classe GAMLSS têm ênfase nos modelos para dados de contagem, sendo eles: Delaporte (DEL), Binomial Negativa tipo I (NBI), Binomial Negativa tipo II (NBII), Poisson (PO), Poisson Inflacionada de Zeros (ZIP), Poisson Inversa Gaussiana (PIG) e Sichel (SI). O modelo VAR foi utilizado apenas para o conjunto de dados (1), obtendo uma boa previsão da quantidade mensal de dias desfavoráveis, apesar do ajuste ter apresentado resíduos relativamente grandes. Os GAMLSS foram utilizados em ambos conjuntos de dados, sendo que os modelos NBII e ZIP melhor se ajustaram aos conjuntos de dados (1) e (2) respectivamente. Além disso, realizou-se um estudo de simulação para compreender melhor os GAMLSS investigados. Os dados foram gerados de três diferentes distribuições Binomiais Negativas. Os resultados obtidos mostraram que, tanto os modelos NBI e NBII como o modelo PIG, ajustaram bem os dados gerados. As técnicas estatísticas utilizadas nessa dissertação foram importantes para descrever e compreender o problema da qualidade do ar.
|
607 |
Inferência em distribuições discretas bivariadasChire, Verônica Amparo Quispe 26 November 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
5618.pdf: 988258 bytes, checksum: 1ce6234a919d1f5b4a4d4fd7482d543c (MD5)
Previous issue date: 2013-11-26 / Financiadora de Estudos e Projetos / The analysis of bivariate data can be found in several areas of knowledge, when the data of interest are obtained in a paired way and present correlation between counts. In this work the Holgate bivariate Poisson, bivariate generalized Poisson and bivariate zero-inflated Poisson models are presented, which are useful to the modeling of bivariate count data correlated. Illustrative applications are presented for these models and the comparison between them is made by using criteria of model selection AIC and BIC, as well as the asymptotic likelihood ratio test. Particularly, we propose a Bayesian approach to the Holgate bivariate Poisson and bivariate zero-inflated Poisson models, based in the Gibbs sampling algorithm with data augmentation. / A análise de dados bivariados pode ser encontrada nas mais diversas áreas do conhecimento, quando os dados de interesse são obtidos de forma pareada e apresentam correlação entre as contagens. Neste trabalho são apresentados os modelos Poisson bivariado de Holgate, Poisson generalizado bivariado e Poisson bivariado inflacionado de zeros, os quais são úteis na modelagem de dados de contagem bivariados correlacionados. Aplicações ilustrativas serão apresentadas para estes modelos e a comparação entre eles será realizada pelos critérios de seleção de modelos AIC e BIC, assim como pelo teste da razão de verossimilhança assintótico. Particularmente, propomos uma abordagem Bayesiana para os modelos Poisson bivariado de Holgate e Poisson Inflacionado de zeros, baseada no algoritmo Gibbs sampling com dados ampliados.
|
608 |
Dependência entre perdas em risco operacionalRequena, Guaraci de Lima 12 February 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
5762.pdf: 2315381 bytes, checksum: 2d23013b02c4b33dcbf1b10405b613b9 (MD5)
Previous issue date: 2014-02-12 / Financiadora de Estudos e Projetos / In this work, we present and discuss the operational risk in the financial institutions, Basel Accord II, the structure of dependence between cumulative operational losses, a tool for modeling this dependence (theory of copula) and the allocation of a capital, called regulatory capital. The usual method for calculation of regulatory capital for operational risk, suggested by Basel Committee, overestimates the final capital because it is considered that the losses are perfectly positively dependents. Then, we propose a new method for this calculation based on theory of copula for the bivariate case. Such method models the dependence between two losses and considers a index (representing the expert opinion). We discuss also a method studied on Alexander (2003) and perform a simulation study in order to compare all methods, the usual, the proposed and the convolution one. / Nesse trabalho, abordamos o risco operacional nas instituições financeiras sob o ponto de vista do Acordo de Basileia II, a característica da presença de dependência estocástica entre as variáveis aleatórias em questão, a ferramenta para modelagem de tal dependência (teoria de cópulas) e a alocação de capital regulatório. Como o método usual para alocação de capital regulatório sugerido pelo Acordo de Basileia II superestima tal capital por considerar que as variáveis perdas são perfeitamente dependentes, propomos neste trabalho uma metodologia alternativa, baseada em teoria de cópulas, para o caso bivariado. Tal metodologia modela a dependência entre duas perdas e ainda inclui a opinião de especialistas da área no modelo final. Também discutimos uma metodologia existente na literatura (método da convolução) e fazemos um estudo de simulação para analisar o comportamento dos métodos abordados: método usual, proposto e da convolução.
|
609 |
Extensões dos modelos de sobrevivência referente a distribuição WeibullVigas, Valdemiro Piedade 07 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
5822.pdf: 1106242 bytes, checksum: 613a82d7af4c6f40b60637e4c7122121 (MD5)
Previous issue date: 2014-03-07 / Financiadora de Estudos e Projetos / In this dissertation, two models of probability distributions for the lifetimes until the occurrence of the event produced by a specific cause for elements in a population are reviewed. The first revised model is called the Weibull-Poisson (WP) which has been proposed by Louzada et al. (2011a). This model generalizes the exponential-Poisson distributions proposed by Kus (2007) and Weibull. The second, called long-term model, has been proposed by several authors and it considers that the population is not homogeneous in relation to the risk of event occurence by the cause studied. The population has a sub-population that consists of elements who are not liable do die by the specific cause in study. These elements are considered as immune or cured. In relation to the elements who are at risk the minimum value of time of the event accurance is observed. In the review of WP the expressions of the survival function, quantile function, probability density function, and of the hazard function, as well the expression of the non-central moments of order k and the distribution of order statistics are detailed. From this review we propose, in an original way, studies of the simulation to analyze the paramenters of frequentist properties of maximum likelihood estimators for this distribution. And also we also present results related to the inference about the parameters of this distribution, both in the case in which the data set consists of complete observations of lifetimes, and also in the case in which it may contain censored observations. Furthermore, we present in this paper, in an original way a regression model in a form of location and scale when T has WP distribution. Another original contribution of this dissertation is to propose the distribution of long-term Weibull-Poisson (LWP). Besides studying the LWP in the situation in which the covariates are included in the analysis. We also described the functions that characterize this distribution (distribution function, quantile function, probability density function and the hazard function). Moreover we describe the expression of the moment of order k, and the density function of a statistical order. A study by simulation viii of this distribution is made through maximum likelihood estimators. Applications to real data set illustrate the applicability of the two considered models. / Nesta dissertação são revistos dois modelos de distribuições de probabilidade para os tempos de vida até a ocorrência do evento provocado por uma causa específica para elementos em uma população. O primeiro modelo revisto é o denominado Weibull-Poisson (WP) que foi proposto por Louzada et al. (2011a), esse modelo generaliza as distribuições exponencial Poisson proposta por Kus (2007) e Weibull. O segundo, denominado modelo de longa duração, foi proposto por vários autores e considera que a população não é homogênea em relação ao risco de ocorrência do evento pela causa em estudo. A população possui uma sub-população constituída de elementos que não estão sujeitos ao evento pela causa especifica em estudo, sendo considerados como imunes ou curados. Em relação à parcela dos elementos que estão em risco observa-se o valor mínimo dos tempos da ocorrência do evento. Na revisão sobre a WP são detalhadas as expressões da função de sobrevivência, da função quantil, da função densidade de probabilidade e da função de risco, bem como a expressão dos momentos não centrais de ordem k e a distribuição de estatísticas de ordem. A partir desta revisão, é proposta de forma original, estudos de simulação com o objetivo de analisar as propriedades frequentistas dos estimadores de máxima verossimilhança dos parâmetros desta distribuição. E apresenta-se resultados relativos à inferência sobre os parâmetros desta distribuição, tanto no caso em que o conjunto de dados consta de observações completas de tempos de vida, como no caso em que ele possa conter observações censuradas. Alem disso, apresentamos de forma original neste trabalho um modelo de regressão na forma de locação e escala quando T tem distribuição WP. Outra contribuição original dessa dissertação é propor a distribuição de longa duração Weibull-Poisson (LWP), alem de estudar a LWP na situação em que as covariáveis são incluídas na análise. Realizou-se também a descrição das funções que caracterizam essa distribuição (função distribuição, função quantil, função densidade de probabilidade e função de risco). Assim como a descrição da expressão do momento de ordem k e da função densidade da estatística de ordem. É feito um estudo por simulação desta distribuição via máxima verossimilhança. Aplicações à conjuntos de dados reais ilustram a utilidade dos dois modelos considerados.
|
610 |
Modelagem estatística para análise de dados imobiliários completos e com censura à esquerdaEstevam, Amanda Cristina 01 April 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
5914.pdf: 1420398 bytes, checksum: e5c2a5d7845b5b17b94959ce849fd613 (MD5)
Previous issue date: 2014-04-01 / Financiadora de Estudos e Projetos / The real estate market has a key role in the country and counties economy attracting several studies and researches that explains and interpret the numerous transactions performed, and especially to find appropriate ways to define the monetary value. Usually the real estate data modeling is performed through regression models, especially the linear and also the generalized linear models ( Nelder andWedderburn, 1972). Because these data has different characteristics such as heteroscedasticity, non-normality and heterogeneity, the use of these models can suffer limitations, so it is appropriate to use more and more complex models, such as generalized additive models for location, scale and shape GAMLSS (proposed by Rigby & Stasinopoulos (2005), that allows all parameters of the response variable are modeled parametric or non parametric form. In this context and based on a dataset of urban land of São Carlos city in 2005 was estimated the empirical function the value of the land addressing the class of linear models, generalized linear models and the GAMLSS. Alternatively, considering the existence of two types of real estate prices: already sold (observed) and announced (censored), was proposed to the data, using the survival analysis considering censored left and the GAMLSS in the parameter estimation process. A simulation study and a study of local influence was also performed. / O mercado imobiliário possui um papel fundamental na economia do país e municípios atraindo diversos estudos e pesquisas que buscam explicar e interpretar as inúmeras transações realizadas, e principalmente, encontrar maneiras adequadas de determinar seu valor monetário. Geralmente a modelagem de dados imobiliários e feita por meio de modelos de regressão, especialmente os lineares e também, os modelos lineares generalizados (Nelder e Wedder-burn,1972). Por se tratarem de dados com diferentes características, como heterocedasticidade, não normalidade e heterogeneidade, o uso desses modelos podem sofrer limitações, por isso torna-se adequada a utilização de modelos cada vez mais complexos, como por exemplo, os modelos aditivos generalizados para posição, escala e forma (GAMLSS) propostos por Rigby & Stasinopoulos (2005), que permitem que todas as estimativas dos parâmetros envolvidos no modelo sejam obtidas de forma paramétrica ou não-paramétrica. Neste contexto e com base em um conjunto de dados de lotes urbanos da cidade de Sao Carlos do ano de 2005 foi estimado a função empírica do valor de lotes abordando a classe de modelos lineares, modelos lineares generalizados e o GAMLSS. Alternativamente, considerando a existência de dois tipos de preços de imóveis: ja vendidos (observados) e anunciados (censurados), foi proposto aos dados, a utilização da analise de sobrevivência considerando censura a esquerda e o GAMLSS no processo de estimação dos parâmetros. Foi realizado também um estudo de simulação e um estudo de influência local.
|
Page generated in 0.0593 seconds