Return to search

Modelos computacionais e probabilísticos em riscos de crédito

Made available in DSpace on 2016-03-15T19:31:11Z (GMT). No. of bitstreams: 1
Flavio Luiz de Moares Barboza_ Portuguesprot.pdf: 2812858 bytes, checksum: f2dcc3e0b9d4f798fd0a10c4a4b79844 (MD5)
Previous issue date: 2015-02-06 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This dissertation studies credit risk to promove a discussion about the breadth of scientific
literature and two highlighted topics: regulatory capital and bankruptcy prediction modelling.
These issues are divided among three essays. The first one is a review of literature
in nature. The main studies on credit risk were classified and coded, and a citation-based
approach was used to determine its relevance and contributions. Interesting omissions of
knowledge are found in this work, which give us motivation to develop two subjects. The
second essay discusses the influence of the desirefor higher rating positions for financial
instituitons strategies when aiming to minimize economic capital, considering the borrower s
credit rating and target rating itself. Using a probabilistic distribution model to
simulate loss-given default (LGD), our results show that the use of credit ratings in the
guidance for calculating minimum capital requirements can be an alternative to the banks.
Yet, we find it possible to get better rankings to lend to some small intervals of LGD. The
third study shows a comparative analysis in the performance of computational models,
which are widely used to solve classification problems, and traditional methods applied to
predict failures one year before the event. The models are formulated by machine learning
techniques (support vector machines, bagging, boosting and random forest). Applying
data from U.S. companies from 1985 to 2013, we compare the results of these innovative
methods with neural networks, logistic regression, and discriminant analysis. The major
result of this part of the study is a substantial improvement in predictive power by using
machine learning techniques, when, besides the original variable Z-Score from Altman
(1968), six metrics (or constructs) selected from Carton e Hofer (2006) are included as
explanatory variables. The analysis shows that the bagging and the random forest models
outperform other techniques; all predictions are improved when the suggested constructs
are included in the survey. / Esta tese estuda risco de crédito com o intuito de promover uma discussão sobre a amplitude
da literatura científica e dois destacados temas: capital regulatório e modelagem
de previsão de falências. Para tanto divididiu-se o material em três ensaios. O primeiro
é, na sua essência, uma revisão de literatura. Os principais estudos sobre risco de crédito
foram classificados e codificados, e uma abordagem baseada em citação foi utilizada
para determinar a sua relevância e contribuições. Lacunas interessantes do conhecimento
são encontradas neste trabalho, o que nos dá motivação para desenvolver dois assuntos.
O segundo discute a influência da busca por posições de rating mais elevadas para as
estratégias das instituições financeiras quando visam minimizar o capital econômico, considerando
rating de crédito do tomador e de seu rating objetivo em si. Usando um modelo
de distribuição probabilística para simular a perda dada a inadimplência (mais conhecida
por loss given default, LGD), os resultados encontrados mostram que o uso de notações
de crédito nas orientações para o cálculo dos requisitos mínimos de capital pode ser uma
alternativa para os bancos. No entanto, achou-se possível obter uma melhor classificação
dentro de alguns pequenos intervalos de LGD. O terceiro mostra uma análise comparativa
do desempenho de modelos computacionais, que são amplamente utilizados para resolver
problemas de classificação e métodos tradicionais aplicados para prever falhas um ano
antes do evento. Os modelos são formulados por meio de técnicas de aprendizagem de
máquinas (máquinas de vetores de suporte, bagging, boosting e random forest). Aplicando
dados de empresas norte-americanas 1985-2013, comparamos os resultados destes métodos
inovadores com redes neurais, regressão logística e análise discriminante. O principal
resultado desta parte do estudo é uma melhoria substancial no poder de previsão usando
técnicas de aprendizado de máquina, quando, além das variáveis do Z-Score original de
Altman (1968), seis métricas (ou constructos) selecionadas a partir de Carton e Hofer
(2006) são incluídas como variáveis explicativas. A análise mostra que os modelos bagging
e random forest tem desempenho superior as outras técnicas; todas as previsões são
melhoradas quando os constructos sugeridos são incluídos na pesquisa.

Identiferoai:union.ndltd.org:IBICT/oai:tede.mackenzie.br:tede/832
Date06 February 2015
CreatorsBarboza, Flavio Luiz de Moraes
ContributorsBasso, Leonardo Fernando Cruz, Forte, Denis, Sobreiro, Vinicius Amorim, Jucá, Michele Nascimento, Kimura, Herbert
PublisherUniversidade Presbiteriana Mackenzie, Administração de Empresas, UPM, BR, Administração
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/doctoralThesis
Formatapplication/pdf
Sourcereponame:Biblioteca Digital de Teses e Dissertações do Mackenzie, instname:Universidade Presbiteriana Mackenzie, instacron:MACKENZIE
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0021 seconds