• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1104
  • 49
  • 25
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1199
  • 791
  • 437
  • 269
  • 230
  • 223
  • 200
  • 192
  • 182
  • 156
  • 130
  • 129
  • 121
  • 119
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Aplicação da análise multivariada na identificação de fatores que influenciam no custo de um plano de saúde

Smaka, Carlos 10 March 2011 (has links)
Resumo: O custo com saúde representa uma parcela significativa dos gastos gerais de várias empresas. Embora maioria das empresas ofereçam um plano de benefícios, muitas vezes o uso inadequado contribui para o aumento dos custos das empresas. O presente trabalho tem como objetivo a identificação das variáveis que mais influenciam no alto custo de um plano de saúde privado. Metodologia: A presente pesquisa envolve um plano de saúde composto por 5008 usuários,contendo inicialmente 20 variáveis. A análise utilizada envolve o método multivariado conhecido como Análise de Componentes principais (ACP) e a Análise de Regressão Múltipla (ARM). Resultados: Usando a metodologia das componentes principais obtém uma redução da dimensionalidade dos dados, com isso, somente aquelas que influenciam expressivamente o conjunto de dados são preservados. Tão importante afirmação que na análise da correlação variáveis originais versus componentes principais, destacam-se as (07) sete primeiras componentes representando 71% de todas as informações iniciais, evidenciando entre 20 variáveis as que contribuem no aumento do custo do plano de saúde. O ajuste do modelo de regressão linear múltipla aconteceu a partir do uso dos escores das componentes principais (ACP), que verificou que essas (07) sete variáveis estão significativamente relacionadas com o alto custo anual do plano de saúde, com uma representação de 60% entre todas as variáveis. Considerações finais: Pode a empresa estudada ter uma previsão de quanto cada titular do plano de saúde custa anualmente para a empresa, através de suas informações e de seus dependentes, permitindo a mesma proporcionar políticas de intervenção junto a esses em relação ao alto custo do plano de saúde e seu aumento.
82

A desigualdade de Cauchy-Schwarz na estimação de temperatura e emissividade da superfície terrestre a partir de dados de sensores orbitais

Hackmann, Cristiano Lima January 2016 (has links)
Todo objeto acima do zero absoluto (0 K) emite radiação infravermelha. O planeta Terra tem uma temperatura média de 300 K e seu pico de emitância eletromagnética situa-se dentro do domínio do infravermelho termal (TIR). Dados deste domínio podem ser coletados por sensores instalados em satélites com o intuito de analisar alvos da superfície da Terra em escala local ou global. Esses sensores captam a radiação no TIR e desta radiação, duas grandezas físicas podem ser recuperadas: temperatura da superfície terrestre (TST) e emissividade da superfície terrestre (EST). A TST é um dos principais parâmetros na dinâmica dos fenômenos climáticas e a EST é um parâmetro importante na identificação de diversos tipos de materiais. Dados de temperatura e emissividade não são medidos diretamente por sensores orbitais. Juntas, essas variáveis determinam a radiância espectral emitida por uma superfície que pode ser captada por estes sensores. Neste caso, tem-se uma medida (radiância) e duas variáveis (temperatura e emissividade), o que conduz a uma equação sem solução única. Vários métodos foram propostos nas últimas décadas e cada técnica tem um conjunto de restrições que deve ser observado a fim de gerar resultados confiáveis. No presente trabalho, dois algoritmos foram propostos para estimar a TST e a EST. A desigualdade de Cauchy-Schwarz é empregada nos métodos desenvolvidos, tratando o problema de estimação dos parâmetros terrestres como uma comparação entre vetores, que correspondem a valores de radiância de imagens do subsistema TIR/ASTER e de assinaturas espectrais de experimentos realizados em laboratório. Um dos métodos acrescenta uma etapa no processamento de dados, em que é aplicado regressão linear para um polinômio do 2º grau entre produtos internos (eixo das ordenadas) e temperaturas (eixo das abscissas). Neste caso, a nova estimativa para temperatura será a abscissa do vértice. Os algoritmos foram testados em dados simulados de temperatura e emissividade obtidos em laboratório de um mineral de quartzo livre de impurezas e com uma assinatura espectral conhecida, associada à ligação Si − 0 na região do TIR. Além disso, os algoritmos foram aplicados em dados de radiância captados pelo sensor ASTER. Os resultados obtiveram desempenho satisfatório levando em conta as características de heterogeneidade do banco de dados experimental e da interferência dos gases atmosféricos. / Any object above absolute zero (0 K) emit infrared radiation. The planet Earth has an average temperature of 300 K and its peak of electromagnetic emittance lies within the domain of thermal infrared (TIR). Sensors in satellites can collect this domain data in order to analyze the Earth’s surface targets in local or global scale. These sensors capture radiation in TIR and from this radiation, two physical quantities can be retrieved: land surface temperature (LST) and land surface emissivity (LSE). The TST is one of the main parameters in the dynamics of climatic phenomena and the EST is an important parameter in the identification of various types of materials. Satellite sensors do not directly measure temperature and emissivity data. Together, these variables determine the spectral radiance emitted by a surface that can be captured by these sensors. In this case, one has a measure (radiance) and two variables (temperature and emissivity), leading to a mathematical problem no single solution. Together, these variables determine the spectral radiance emitted by a surface that can be captured by these sensors. In this case, there is a measure (radiance) and two variables (temperature and emissivity), leading to an equation with no single solution. Several methods have been proposed in recent decades and each technique has a set of restrictions that must be observed in order to generate reliable results. In this study, two algorithms have been proposed to estimate the TST and EST. Cauchy-Schwarz inequality is used in methods developed by treating the problem of estimating terrestrial parameters as a comparison between vectors, corresponding to values of radiance of TIR/ASTER subsystem and spectral signatures of experiments performed in the laboratory. One method adds a step in the data processing, wherein regression is applied to a polynomial of 2nd degree between inner products (ordinate axis) and temperature (abscissa axis). In this case, the new estimate for temperature is the abscissa of the vertex. The algorithms were tested on simulated data of temperature and emissivity obtained in the laboratory of a quartz mineral free of impurities and with a known spectral signature, associated with the Si − 0 bond in the TIR domain. Moreover, the algorithms have been applied in radiance data captured by the sensor ASTER. The results achieved satisfactory performance taking into account the characteristics of the experimental database heterogeneity and the interference of atmospheric gases.
83

Diagnósticos em regressão: uma revisão e desenvolvimento de um sistema computacional / Diagnostics in regression: a review and a computational system development

Wagner Luiz Volpe 11 December 1990 (has links)
No ajuste de um modelo de regressão pelo método;:) dos mínimos quadrados, é importante destacar a influência que cada valor observado tem sobre seu respectivo valor ajustado. A matriz de projeção, conhecida como “Hat-MatrixU”, contém estas informações e, juntamente com a análise dos resíduos estudentizados, fornece subsídios para determinar a existência de pontos influentes e/ou discrepantes (HOAGLH & WELSCH, 1978). Com a finalidade de detectar tais pontos em um modelo de regressão, foram propostas nos últimos anos, várias medidas de diagnóstico. As principais são apresentadas e discutidas no texto. Apesenta-se ainda um procedimento, gráfico, denominado gráfico L-R ("Leverage-Residual PIot'), de utilidade para determinar a causa da influência de uma observação através da análise dos elementos da diagonal da matriz de projeção, dos resíduos, e do efeito combinado destas duas medidas (GRAY, 1986) Para ilustração, tornou-se um exemplo com dados reais, na área de agronomia. Além disso desenvolveu-se um programa em linguagem TURBO- BASIC, utilizável em microcomputadores compatíveis ao padrão IBM-PC/XT, que proporciona as soluções desejáveis neste estudo. O método dói matriz de projeção mostrou-se eficiente na determinação de pontos influentes e/ou discrepantes. Das medidas de diagnóstico, a estatística D de COOK foi a que revelou melhores resultados. / When a least-squares fitting procedure is done it seems to be of some importance to know the influence that a y observed value could have on the y fitted datum. Such an information may be obtained from a projection matrix, the well know"Hat-Matrix", and also from the studentized residuals wich provides the identification of possible unusual data points (HOAGLIN & WELSCH, 1978). Here, a considerable number of statistics proposed for the study of outliers and the influence of observations in regression analysis is presented and discussed. The L-R plot (Leverage-Residual Plot) graphical display is also included in order to find the relative cause of influence, its residuals or their combined effects (GRAY, 1986). Finally, a real data example from agronomical sciences is studied through a computing program specially developed. It is also observed the efficiency of the"Hat-Matrix"to detect influent values and that of the Cook's D Statistcs as a diagnostic measure
84

Modelos lineares para dados qualitativos: revisão bibliográfica e aplicações em experimentos agronômicos / not available

Rui Vieira de Moraes 00 December 1900 (has links)
Em algumas situações dentro da Estatística Experimental, a variável em estudo é qualitativa e suas mensurações podem ser apresentadas na forma de uma tabela de contingências (sxr). Nesses casos o estudo estatístico dessa variável pode ser feito através de modelos lineares para dados qualitativos, utilizando a metodologia proposta por GRIZZLE, STARMER e KOCH (1969), também como método GSK. Em nosso trabalho, discutiremos o artigo básico dessa metodologia, que será apresentado em capítulo especial, bem como os mais recentes trabalhos nessa área, a partir dos quais se programará, em linguagem BASIC, o método GSK. Finalizaremos nosso trabalho, apresentando exemplos aplicados a agronomia, relativos à produção de laranja e rendimento médio agrícola em kg/ha de cana-de-açúcar / In some situations in the Experimental Statistic, field the variable in study is qualitative and its measures can be presented like a contingency table (sxr). In such cases, a statistic study of this variable can be made through linear models for qualitative data using the method of GRIZZLE, STARMER and KOCK (1969), well known as GSK method. In this work, we will discuss the basic point of this methodology, that will be presented in a special chapter, as well as the update papers in this area. That will used to program the GSK method in BASIC language. Finally, we will present the some examples in data concerning from orange production and agricultural average production in kg/ha of sugar cane
85

Método de orientação à modelagem de dados mensurados em proporção

Sant'Anna, Ângelo Márcio Oliveira January 2006 (has links)
A implementação de técnicas estatísticas, como modelos de regressão, permite conhecer os efeitos dos fatores sobre a característica de qualidade de um produto, contribuindo na melhoria da qualidade de produtos e processos. O objetivo desta dissertação consiste em elaborar um método que oriente à modelagem de dados mensurados em proporção, levando em consideração a classificação das variáveis dependentes e independentes, com enfoque no Modelo de Regressão Beta e no Modelo de Quaseverossimilhança. O método é ilustrado com um estudo em uma empresa curtidora da região do Vale do Rio dos Sinos no Rio Grande do Sul. A modelagem realizada neste estudo referiuse a proporção de produtos refugados no processo de produção por erro de classificação. Os Modelos de Regressão Beta e de Quase-verossimilhança apresentaram bom ajuste e mostraram-se adequados na modelagem da proporção de produtos por erros de classificação. Esses modelos podem ser estendidos a todos os processos industriais que envolvam a produção de produtos não conformes às especificações de fabricação (defeituosos). O método elaborado apresentou facilidade de entendimento e clareza dos passos para a escolha dos modelos de regressão usados na modelagem de dados mensurados em proporção.
86

Modelos de regressão para dados simbólicos de natureza intervalar

de Andrade Lima Neto, Eufrasio 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:49:15Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O processo de descoberta de conhecimento tem por objetivo a extração de informações úteis (conhecimento) em bases de dados. As ferramentas utilizadas para execução do processo de extração de conhecimento são genéricas e derivadas de diferentes áreas de conhecimento tais como da estatística, aprendizagem de máquina e banco de dados. Dentre as técnicas estatísticas, os modelos de regressão procuram classificar ou prever o comportamento de uma variável dependente (resposta) a partir das informações provenientes de um conjunto de variáveis independentes (explicativas). A análise de dados simbólicos (SDA) (Bock & Diday 2000) tem sido introduzida como uma novo domínio relacionado à análise multivariada, reconhecimento de padrões e inteligência artificial com o objetivo de estender os métodos estatísticos e de análise exploratória de dados para dados simbólicos. O objetivo deste trabalho é propor métodos de regressão linear e não-linear para dados simbólicos que apresentem uma performance de predição superior ao método proposto por Billard & Diday (2000), no caso de variáveis simbólicas tipo intervalo
87

Test Case Selector: Uma Ferramenta para Seleção de Testes

Nereida Dantas Mafra, Juliana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:48Z (GMT). No. of bitstreams: 2 arquivo2991_1.pdf: 6547364 bytes, checksum: 03ab81c7244ab7c419279c96b7250ff6 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Esta dissertação descreve a ferramenta Test Case Selector (TCS), desenvolvida para auxiliar o usuário a selecionar casos de teste. O Test Case Selector foi desenvolvido no contexto de uma cooperação industrial com a Motorola, onde seleção de testes de regressão não é uma tarefa fácil. Em geral, uma suíte possui milhares de casos de testes e, em um ciclo de regressão, apenas algumas centenas podem ser executados, de acordo com a capacidade dos times de execução. Tal seleção é feita manualmente. O processo de seleção do TCS atribui pontos a cada caso de teste de acordo com 4 critérios de seleção: número de execuções, taxa de falhas por execução, número de defeitos novos encontrados e complexidade do teste. O usuário atribui pesos a cada critério e o TCS calcula uma média ponderada para cada caso de teste. Os casos de teste que mais pontuaram são mais relevantes para o ciclo de regressão. Para avaliar a ferramenta TCS, desenvolvemos uma ferramenta auxiliar de cálculo de métricas e executamos 3 estudos de caso. A métrica M1 calcula a intersecção existente entre as técnicas manual e automática e as métricas M2:1 e M2:2 calculam a efetividade da seleção automática baseado no percentual de casos de teste que acham defeitos e no percentual de defeitos encontrados, respectivamente. O primeiro estudo de caso compara a seleção manual com a seleção automática, o segundo avalia a efetividade da seleção automática realizada pelo TCS e o terceiro ilustra um processo de extração de pesos a partir do histórico de execução. De acordo com os resultados analisados, verificamos que no primeiro estudo de caso, não houve semelhança significativa entre os casos de teste selecionados de forma manual e automática. No segundo estudo de caso, observamos que a efetividade obtida ao considerar pequenos intervalos não foi satisfatória e no terceiro, através do processo de melhoria contínua, conseguimos detectar critérios que foram eficazes no passado e obtivemos resultados mais efetivos. As principais contribuições deste trabalho são: a definição de 4 critérios para seleção de casos de teste caixa-preta baseados em informações históricas e julgamento de especialistas; a implementação de ferramentas para mecanizar a seleção de casos de teste e realizar o cálculo automático das métricas; estudos de caso ilustrando o uso da ferramenta TCS em suítes reais e um processo de seleção de casos de teste baseado em melhoria contínua
88

Técnicas de diagnóstico em modelos parcialmente lineares aditivos generalizados para dados correlacionados

MANGHI, Roberto Ferreira 26 February 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-08T19:26:48Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE_FINAL_SEM_ASSINATURA.pdf: 1375200 bytes, checksum: 455de35228d8570ecb6cb722f53fcb85 (MD5) / Made available in DSpace on 2016-07-08T19:26:48Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE_FINAL_SEM_ASSINATURA.pdf: 1375200 bytes, checksum: 455de35228d8570ecb6cb722f53fcb85 (MD5) Previous issue date: 2016-02-26 / CAPES / Nesta tese desenvolvemos técnicas de diagnóstico nos Modelos Parcialmente Lineares Aditivos Generalizados (MPLAG) (ver Lian et al., 2014) para dados correlacionados com distribuição marginal pertencente a` família exponencial, em que a média depende de componentes paramétricos e não paramétricos. Adicionalmente, propomos equações para estimação conjunta dos efeitos fixos e parâmetros de correlação. Desenvolvemos o processo de estimação conjunta dos parâmetros e estimadores “naive” e “robustos” dos erros-padrão dos estimadores são propostos. São desenvolvidas medidas de alavancagem, análise de resíduos e análise de influência local baseada na curvatura normal sob diferentes cenários de perturbação. Três tipos de resíduos são derivados e um estudo de simulação é realizado para verificar propriedades empíricas dos resíduos propostos e dos estimadores dos efeitos fixos. Gráficos de quantis normais com envelopes simulados são utilizados para investigar a adequabilidade dos modelos ajustados sob a suposição de uma distribuição marginal pertencente a família exponencial e aplicações a dados reais são apresentadas / In this thesis we developed diagnostic techniques on Generalized Additive Partial Linear Models (GAPLM) (see Lian et al., 2014) for correlated data with marginal distribution on the exponential family, where the mean depends on parametric and non-parametric components. In addition, we propose equations for joint estimation of fixed effects and correlation parameters. We developed the joint parameter estimation process and “naive” and “robust” estimators for the standard-errors of the estimators are proposed. Leverage measures, residual analysis and local influence analysis based on the normal curvature under different perturbation scenarios are developed. Three types of residuals are derived and a simulation study is conducted to verify empirical properties of the proposed residuals and the fixed effects estimators. Normal quantile graphics with simulated envelopes are used to investigate the fitted models adequacy under the assumption of a marginal distribution on the exponential family and applications to real data are presented.
89

Análise de dados poligonais: uma nova abordagem para dados simbólicos

SILVA, Wagner Jorge Firmino da 15 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T19:38:21Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wagner Jorge Firmino da Silva.pdf: 2229812 bytes, checksum: cd0717859fc2db2f941c19518ac603d0 (MD5) / Made available in DSpace on 2018-06-25T19:38:21Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wagner Jorge Firmino da Silva.pdf: 2229812 bytes, checksum: cd0717859fc2db2f941c19518ac603d0 (MD5) Previous issue date: 2017-02-15 / CAPES / Análise de Dados Simbólicos (ADS) é um paradigma que fornece uma estrutura para construir, descrever, analisar e extrair conhecimento de dados mais complexos como intervalos, histogramas, distribuição de pesos ou lista de valores (categorias). Tipicamente, os dados simbólicos surgem em duas situações, ao longo da coleta e processamento de dados. Alguns dados coletados são inerentemente simbólicos e outros se tornam dados simbólicos após o processamento de enormes conjuntos de dados, a fim de resumi-los através de classes de dados. Dados poligonais, propostos neste trabalho, são estruturas complexas multivariadas de dados que são capazes de armazenar informações de classes de dados. Este trabalho introduz uma nova estrutura para análise de dados poligonais no paradigma de análise de dados simbólicos. Mostramos que dados poligonais generalizam dados de intervalos bivariados. Para análise de dados poligonais estatísticas descritivas e um modelo de regressão linear são propostos. Estudo de simulação de Monte Carlo são realizados para verificar o desempenho da previsão em dados poligonais. Dois conjuntos de dados reais são apresentados. / Symbolic Interval Data (SDA) is a paradigm which provides a framework for building, describing, analyzing and extracting knowledge from data more complex such as intervals, histograms, distribution of weights or list of values (categories). Typically, symbolic data arise in two situations throughout data collecting and processing. Some data collected are inherently symbolic and some become symbolic data after processing of huge data sets in order to summarize them through classes of data. Polygonal data present in this work is a multivariate complex structure of data that is able to store information from classes of data. This work introduces a new framework for polygonal data analysis in the symbolic data analysis paradigm. We show that polygonal data generalizes bivariate interval data. To analyse polygonal data descriptive statistics and a linear regression model are proposed for symbolic polygonal data. A Monte Carlo study of simulation are present to verify the performance of prediction for polygonal data. Two real dataset are present.
90

Ensaios de modelos de regressão linear e não-linear para dados simbólicos de tipo intervalo

REYES, Dailys Maite Aliaga 14 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T20:27:45Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) / Made available in DSpace on 2018-06-25T20:27:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Dailys Maite Aliaga Reyes.pdf: 1031688 bytes, checksum: d2b38d73f1c20d04530a539f28c3bff9 (MD5) Previous issue date: 2017-02-14 / FACEPE / A presente dissertação foi desenvolvida no marco da análise de dados simbólicos de tipo intervalo, especificamente, em modelos de regressão. Os dados simbólicos são extensões de tipos de dados clássicos. Em conjuntos de dados convencionais, os objetos são individualizados, enquanto em dados simbólicos estes são unificados por relacionamentos. Primeiramente, foi realizada uma revisão sobre dados desta natureza e das principais metodologias utilizadas para sua análise. Um novo modelo de precificação de ativos de capital (CAPM pelas siglas em inglês) foi proposto e testado para dados intervalares. A abordagem levou em conta a variação nos intervalos de preços diários em ativos de mercado, observando os preços máximos e mínimos ao invés dos preços de abertura ou fechamento que têm sido mais populares em aplicações econométricas com modelos de CAPM. Para os cálculos envolvendo intervalos de preços e retornos de ativos, as operações básicas da aritmética intervalar foram utilizadas. O modelo proposto (iCAPM) é uma das mais recentes aplicações CAPM intervalares, em que a estimativa do parâmetro β é um intervalo. Nesta ocasião, foi proposta uma nova interpretação para dito parâmetro em conformidade com a interpretação tradicional para o risco sistemático de ativos na área das finanças. Foram apresenta dos dois exemplos ilustrativos com os intervalos de preços diários da Microsoft e de Amazon, usando os retornos do mercado derivados do índice S&P500 do01denovembrode2013ao15dejaneirode2015. Em conformidade com os testes estatísticos aqui realizados, os resultados da aplicação do modelo CAPM intervalar (iCAPM) proposto são consistentes estatísticamente, comum a explicação confiável referente aos retornos dos ativos em questão e aos retornos do mercado. Conjuntamente, foi introduzido um modelo de regressão não-linear simétrica para dados simbólicos de tipo intervalo (SNLRM-IVD), o qual ajusta um único modelo de regressão não-linear aos pontos médios (centros) e amplitudes (ranges) dos intervalos considerando a distribuição de t-Student. O desempenho do modelo foi validado através do critério estatístico da magnitude média doerro relativo, desenvolvendo experimentos no âmbito de simulações de Monte Carlo em relação a vários cenários simbólicos com outliers. Além do mais, o modelo proposto foi ajustado a um conjunto real de dados intervalares. A principal característica deste modelo é que proporciona estimadores não sensíveis à presença de outliers. / The present dissertation was developed within the framework of the symbolic data analysis of interval-valued type, and it is specially related to regression models. Symbolic data are extensions of classic data types. In conventional data sets, objects are individualized, while in symbolic data they are unified by relationships. At first, a deep review about the nature of this kind of data and the main methodologies used for its analysis were performed. A new capital asset pricing model (CAPM) has been proposed and tested for interval symbolic data. The approach considered the daily variation of the price ranges in market assets according to the maximum and minimum prices rather than the opening or closing prices, which have been most popular in econometric applications with CAPM models. For calculations involving price ranges and asset returns, the basic operations concerning the interval arithmetic were used. The proposed model (iCAPM) is one of the most recent interval CAPM applications, in which the estimate of theβ-parameter is, in fact, an interval. On this occasion, a new interpretation was proposed for this parameter in accordance with the traditional interpretation for the systematic risk of the assets in the market. Two figurative examples involving the daily price ranges of Microsoft and Amazon have been presented, using the market returns from the S&P500 index in the period from November 1, 2013 to January 15, 2015. In accordance with the statistical tests performed here, the results of the application of the proposed model (iCAPM) are statistically consistent with a reliable explanation of the assets returns and the market returns in question. Secondly, a non-linear regression model for interval-valued data was introduced (SNLRM-IVD), which sets a single regression model to the midpoints (centers) and ranges of the intervals at once, considering thet-Student distribution. The performance of the model was validated through the statistical criterion of the average magnitude of the relative error, undergoing experiments in the scope of Monte Carlo simulations in relation to several symbolic scenarios with outliers. Finally, the proposed model was fitted to a real set of interval data. The main feature of this SNLRM-IVD is that it provides estimators that are not sensitive to the presence of outliers.

Page generated in 0.0509 seconds