51 |
[en] PRECODING AND RESOURCE ALLOCATION FOR CELL-FREE MASSIVE MIMO SYSTEMS / [pt] PRÉ-CODIFICAÇÃO E ALOCAÇÃO DE RECURSOS EM SISTEMAS DE MÚLTIPLAS ANTENAS MASSIVOS LIVRES DE CÉLULAS03 December 2020 (has links)
[pt] Sistemas de múltiplas antenas livres de células surgiram recentemente
como uma combinação de MIMO massivo, sistemas de antenas distribuídas
(DAS) e network MIMO. Esta dissertação explora o downlink deste cenário
com pontos de acesso (PAs) de uma ou múltiplas antenas e considerando conhecimento perfeito e imperfeito do canal. São desenvolvidos esquemas que
combinam pré-codificação, alocação de potência e seleção de PAs (SPA).
Para começar, duas estratégias de SPA foram investigadas, uma baseada
em busca exaustiva (BE-SPA) e a outra em coeficientes de desvanecimento
de larga escala (LE-SPA), com o intuito de reduzir a complexidade das redes
livres de células. Subsequentemente, apresentamos duas técnicas iterativas
de pré-codificação, todas seguindo o critério Minimum Mean-Square Error
(MMSE), combinadas à restrição de potência total. A primeira nós chamamos
de MMSE, com restrição de potência total. Nós também incorporamos
robustez ao método desenvolvido chamado RMMSE, um pré-codificador
robusto com restrição de potência total. Como terceiro elemento da configuração
proposta, esquemas de alocação de potência foram desenvolvidos,
com abordagens ótimas, adaptativas e uniformes. Um algoritmo de alocação
de potência ótima (APO) é apresentado, baseado na maximização da
mínima Signal-to-Interference-plus-Noise Ratio (SINR). A solução adaptativa
(APA) é caracterizada pelo gradiente estocástico (GE) do mean-square
error (MSE) e a alternativa uniforme (UPA) propõe a equalização de todos
os coeficientes de potência. Todas as configurações devem respeitar a restrição
de potência por antena, imposta pelo sistema. Uma análise de soma
das taxas é feita, para todas as técnicas estudadas e o custo computacional
de cada uma delas é calculado. Resultados numéricos provam que as
técnicas propostas têm performance superior à pré-codificadores Conjugate
Beamforming (CB) e Zero-Forcing (ZF), ambos com alocação de potência
uniforme e ótima, na forma de taxa de erro de bit (BER), soma das taxas
e mínima SINR. Além disso, os resultados atestam que o desempenho pode
ser mantido e até melhorado com a aplicação de SPA. / [en] Cell-Free Massive multiple-input multiple-output (MIMO) systems
have emerged in recent years as a combination of massive MIMO, distributed
antenna systems (DAS) and network MIMO. This thesis explores the
downlink channel of such scenario with single and multiple-antenna access
points (APs) and takes into account both perfect and imperfect channel
state information (CSI). We propose transmit processing schemes that
combine precoding, power allocation and AP selection (APS). To begin
with, two APS strategies have been investigated, one based on exhaustive
search (ES-APS) and the other on the large-scale fading coefficients (LSAPS),
in order to reduce the complexity of cell-free networks. Subsequently,
we present two iterative precoding techniques following the minimum meansquare
error (MMSE) criterion with total power constraint. The first we
call MMSE, with total power constraint. We also incorporate robustness
in the developed method, called RMMSE, a robust precoder with total
power constraint. As the third element of the proposed schemes, power
allocation techniques are developed, with optimal, adaptive and uniform
approaches. An optimal power allocation (OPA) algorithm is presented
based on the maximization of the minimum signal-to-interference-plus-noise
ratio (SINR). The adaptive solution (APA) is characterized by the stochastic
gradient of the mean-square error (MSE) and the uniform alternative (UPA)
proposes to equalize all power coefficients. All configurations must fulfil an
antenna power constraint, imposed by the system. A sum-rate analysis is
carried out for all studied techniques and the computational cost of each
one is calculated. Numerical results prove that the proposed techniques
outperform existing conjugate beamforming (CB) and zero-forcing (ZF)
precoders, both with uniform and optimal power allocation, in terms of
bit error rate (BER), sum-rate and minimum SINR. Furthermore, we also
attest that performance can be maintained or even improved in the presence
of APS.
|
52 |
[en] HEURISTICS FOR DATA POINT SELECTION FOR LABELING IN SEMI-SUPERVISED AND ACTIVE LEARNING CONTEXTS / [pt] HEURÍSTICAS PARA SELEÇÃO DE PONTOS PARA SEREM ANOTADOS NO CONTEXTO DEAPRENDIZADO SEMI- SUPERVISIONADO E ATIVOSONIA FIOL GONZALEZ 16 September 2021 (has links)
[pt] O aprendizado supervisionado é, hoje, o ramo do aprendizado de máquina
central para a maioria das inovações nos negócios. A abordagem depende de
ter grandes quantidades de dados rotulados, suficiente para ajustar funções com a precisão necessária. No entanto, pode ser caro obter dados rotulados ou criar os rótulos através de um processo de anotação. O aprendizado semisupervisionado (SSL) é usado para rotular com precisão os dados a partir de
pequenas quantidades de dados rotulados utilizando técnicas de aprendizado
não supervisionado. Uma técnica de rotulagem é a propagação de rótulos.
Neste trabalho, usamos especificamente o algoritmo Consensus rate-based label
propagation (CRLP). Este algoritmo depende do uma função de consenso para
a propagação. Uma possível função de consenso é a matriz de co-associação
que estima a probabilidade dos pontos i e j pertencem ao mesmo grupo. Neste trabalho, observamos que a matriz de co-associação contém informações
valiosas para tratar esse tipo de problema. Quando nenhum dado está rotulado, é comum escolher aleatoriamente, com probabilidade uniforme, os dados a serem rotulados manualmente, a partir dos quais a propagação procede. Este
trabalho aborda o problema de seleção de um conjunto de tamanho fixo de
dados para serem rotulados manualmente que propiciem uma melhor precisão
no algoritmo de propagação de rótulos. Três técnicas de seleção, baseadas
em princípios de amostragem estocástica, são propostas: Stratified Sampling
(SS), Probability (P), and Stratified Sampling - Probability (SSP). Eles são
todos baseados nas informações embutidas na matriz de co-associação. Os
experimentos foram realizados em 15 conjuntos de benchmarks e mostraram
resultados muito interessantes. Não só, porque eles fornecem uma seleção
mais equilibrada quando comparados a uma seleção aleatória, mas também
melhoram os resultados de precisão na propagação de rótulos. Em outro
contexto, essas estratégias também foram testadas dentro de um processo de
aprendizagem ativa, obtendo também bons resultados. / [en] Supervised learning is, today, the branch of Machine Learning central
to most business disruption. The approach relies on having amounts of labeled
data large enough to learn functions with the required approximation.
However, labeled data may be expensive, to obtain or to construct through
a labeling process. Semi-supervised learning (SSL) strives to label accurately data from small amounts of labeled data and the use of unsupervised learning techniques. One labeling technique is label propagation. We use specifically the Consensus rate-based label propagation (CRLP) in this work. A consensus function is central to the propagation. A possible consensus function is a coassociation
matrix that estimates the probability of data points i and j belong to the same group. In this work, we observe that the co-association matrix has valuable information embedded in it. When no data is labeled, it is common to choose with a uniform probability randomly, the data to manually label, from which the propagation proceeds. This work addresses the problem of selecting
a fixed-size set of data points to label (manually), to improve the label propagation algorithm s accuracy. Three selection techniques, based on stochastic sampling principles, are proposed: Stratified Sampling (SP), Probability (P), and Stratified Sampling - Probability (SSP). They are all based on the information embedded in the co-association matrix. Experiments were carried out on 15 benchmark sets and showed exciting results. Not only because they provide a more balanced selection when compared to a uniform random selection, but also improved the accuracy results of a label propagation method. These strategies were also tested inside an active learning process in a different
context, also achieving good results.
|
53 |
[pt] APRENDIZADO DE MÁQUINA PARA DETECÇÃO DE FALHAS NO TRATAMENTO DE EFLUENTES INDUSTRIAIS DA INDÚSTRIA DE PANIFICAÇÃO POR ELETROCOAGULAÇÃO / [en] MACHINE LEARNING FOR FAILURE DETECTION IN BAKERY INDUSTRIAL EFFLUENTS TREATMENT BY ELECTROCOAGULATIONTHIAGO DA SILVA RIBEIRO 19 October 2023 (has links)
[pt] A eletrocoagulação é um método emergente de tratamento de efluentes que
combina os benefícios da coagulação, flotação e eletroquímica. Devido à
complexidade inerente às operações de uma estação de tratamento de efluentes, é
um desafio reagir com rapidez e precisão às condições dinâmicas necessárias para
manter a qualidade do efluente. Portanto, esta tese tem como objetivo identificar a
condição operacional de uma estação de tratamento de efluentes que adotou a
eletrocoagulação para o tratamento de efluentes de panificação. Três condições
operacionais baseadas em clarificação do efluente e lodo da reação foram as
variáveis-alvo. A tese está dividida em dois ensaios. O primeiro usou sete métodos
de seleção de atributos para selecionar as variáveis mais importantes em um
determinado conjunto de dados. O desempenho dos modelos de classificação de
redes neurais treinados no conjunto de atributos original foi comparado ao
desempenho daqueles que foram treinados em um subconjunto curado usando
técnicas de seleção de atributos. O modelo que utilizou a seleção de atributos
apresentou o melhor desempenho (F1-score = 0,92) e uma melhoria de mais de 30 por cento
na prevenção de falsos positivos. A segunda contribuição trouxe um modelo que
poderia detectar o comportamento anômalo do processo usando apenas imagens
coloridas da superfície do efluente obtidas através de dois módulos de câmera de
tamanho pequeno. O desempenho de vários métodos, incluindo MLP, LSTM, SVM
e XGBoost foi avaliado. O modelo LSTM superou os outros em termos de Precisão
(84,620 por cento), Recall (84,531 por cento) e F1-score (84,499 por cento), mas o modelo XGBoost vem
em segundo lugar com Precisão (83,922 por cento), Recall (82,272 por cento) e F1-score
(83,005 por cento). / [en] Electrocoagulation is an emerging wastewater treatment method that
combines the benefits of coagulation, flotation, and electrochemistry. As a result of
the inherent complexity of processes associated with wastewater treatment plants,
it is difficult to respond swiftly and correctly to the dynamic circumstances that are
necessary to ensure effluent quality. Therefore, this thesis aims to identify the
operational condition of a wastewater treatment plant that has adopted
electrocoagulation for treating bakery wastewater. Three operational conditions
based on effluent clarification and reaction sludge were the target variables. The
thesis is divided into two essays. The first endeavor used seven feature selection
methods to select the most important features in a given dataset. The performance
of neural network classification models trained on the original feature set was
compared to the performance of those that were trained on a subset of features that
had been curated using feature selection techniques. The model that utilised feature
selection was found to have the best performance (F1-score = 0.92) and an
improvement of more than 30 percent in preventing false positives. The second
contribution brought a model that could detect anomalous process behavior using
only wastewater surface color images from two small-size camera modules. The
performance of various methods, including MLP, LSTM, SVM, and XGBoost was
assessed. The LSTM model outperformed the others in terms of macro average
Precision (84.620 percent), Recall (84.531 percent), and F1-score (84.499 percent), but the XGBoost
model comes closely in second with Precision (83.922 percent), Recall (82.272 percent), and
F1-score (83.005 percent).
|
54 |
[en] CONTINGENCIES, INTERVENTIONS AND RESULTS FROM THE REVIEW PHASE OF THE SUPPLIER PERFORMANCE MEASUREMENT SYSTEM: AN ACTION RESEARCH AT A PUBLIC SECTOR COMPANY / [pt] CONTINGÊNCIAS, INTERVENÇÕES E RESULTADOS DA FASE DE REVISÃO DO SISTEMA DE MEDIÇÃO DE DESEMPENHO DE FORNECEDORES: UMA PESQUISA-AÇÃO EM UMA EMPRESA DO SETOR PÚBLICOMATHEUS ALLGAIER 27 March 2023 (has links)
[pt] O Sistema de Medição de Desempenho de Fornecedores (SMDF) é uma
ferramenta para avaliar, medir e monitorar o desempenho dos fornecedores. O
interesse em SMDF é grande na academia, tornando-se um tema frequente na
literatura. Contudo, ainda existem lacunas pouco exploradas por pesquisadores no
tema, como a fase de revisão de um SMDF e a sua aplicação no setor público. Neste
contexto, a presente pesquisa de mestrado avalia a eficácia da fase de revisão de um
SMDF de uma empresa estatal brasileira de grande porte, que precisou se adequar
às alterações legislativas e aos feedbacks de suas equipes de gestão contratual,
compradores e fornecedores, buscando aumentar a confiança do sistema junto a
estas partes interessadas. Com o suporte da literatura e o trabalho colaborativo de
diversos departamentos da empresa, esta pesquisa-ação acompanhou cinco
intervenções realizadas no SMDF corrente da empresa, sendo elas o aumento da
transparência, a melhoria na tempestividade das avaliações, a implementação da
funcionalidade de revisão de avaliações, a implementação da funcionalidade de
justificativas de avaliações, e a revisão dos questionários e métricas de avaliações.
Como resultado das intervenções, observou-se melhoria no relacionamento com os
fornecedores, o aumento significativo no uso do Índice de Desempenho de
Fornecedores (IDF) como critério seleção e habilitação de fornecedores, e o
aumento no desempenho de contratos novos e em andamento. O trabalho oferece
um framework, inspirado na teoria organizacional das contingências, apresentando
o contexto inicial, as intervenções realizadas através da ótica das dimensões
Humana, Tecnológica e Organizacional, e os resultados identificados, propiciando
orientações e implicações diretas para praticantes da indústria e pesquisadores
acadêmicos e reduzindo a lacuna entre teoria e prática. / [en] The Supplier Performance Measurement System (SPMS) is a tool for
assessing, measuring, and monitoring supplier performance. There is great interest
in SPMS in the academia, becoming a frequent theme in the literature. However,
there are still gaps little explored by researchers in the subject, such as the review
phase of an SPMS and its application in the public sector. In this context, this
master s research evaluates the effectiveness of the review phase of an SPMS of a
large Brazilian state-owned company, which had to adapt to legislative changes and
feedback from its contract management teams, buyers and suppliers, seeking to
increase the confidence of the system with these stakeholders. With the support of
the literature and the collaborative work of several departments, the company
carried out five interventions in the SPMS, including raising its transparency,
improving the timing of assessments, implementation of the assessment review
functionality, implementation of the assessment justifications functionality, and
review of questionnaires and evaluation metrics. As a result of the interventions,
there was an improvement in the relationship with suppliers, the significant increase
in the use of the Supplier Performance Index (SPI) as a criterion for selecting and
enabling suppliers and increasing the performance of new and ongoing contracts.
This research offers a framework, inspired by the organizational contingency
theory, presenting the initial context, interventions performed through the
perspective of Human, Technological and Organizational dimensions (HTO), and
the identified results, which provides guidance and direct implications for industry
practitioners and academic researchers, reducing the gap between theory and
practice.
|
55 |
[en] RECIRCULATION AND REMIXING OF NEWS IN LGBT ACTIVISM: AN ANALYSIS OF THE NEWSPAPER GAVE IN THE WEEK / [pt] RECIRCULAÇÃO E REMIXAGEM DE NOTÍCIA NO ATIVISMO LGBT: UMA ANÁLISE DO JORNAL DEU NA SEMANACARLYLE SANTOS JUNIOR 14 November 2019 (has links)
[pt] Os debates acerca de questões relativas à orientação sexual e identidade de gênero têm sido colocados na arena pública para compreender comportamentos, a relação com o corpo, os anseios e as dificuldades enfrentados por gays, lésbicas, travestis, transexuais e transgêneros (LGBT) na sociedade brasileira. São indivíduos que desafiam e desestabilizam a ordem vigente assentada na heteronormatividade e no binômio masculino e feminino e, a partir disso, buscam reconhecimento para garantir direitos e o fim de inúmeras violações. Em decorrência disso, as narrativas jornalísticas buscam captar com mais amplitude e empatia o caráter político e público de temas ligados à diversidade sexual e de gênero. Esta dissertação se debruça sobre a seção Deu na semana, abrigada no canal do YouTube Põe na Roda, que trata-se de um noticiário na plataforma de vídeos que reúne notícias sobre a população LGBT. Nesse sentido, busca-se compreender como a internet e as redes sociais reconfiguraram os modos de produção, circulação e recirculação de notícias trazendo novos atores em um contexto de jornalismo participativo e ativista. E, sob a luz de teorias do jornalismo, como a do Gatekeeping (WHITE, 1950) e do Newsmaking (TUCHMAN, 1978), investiga-se como a seleção de notícias, articulada à apreensão de critérios de noticiabilidade da grande
imprensa, ajuda a construir uma nova realidade da população LGBT a partir de novos enquadramentos e recortes de temas ligados à conquista de direitos, representatividade, luta contra homofobia e apoio à causa LGBT. / [en] Discussions on issues of sexual orientation and gender identity have been put in the public arena to understand behaviors, the relationship with the body, the yearnings and the difficulties faced by gays, lesbians, transvestites, transsexuals and transgender (LGBT) people in society Brazilian. They are individuals who challenge and destabilize the prevailing order based on heteronormativity and the male and female binomial, and, from this, seek recognition to guarantee rights and the end of numerous violations. As a result, the journalistic narratives seek to capture with greater amplitude and empathy the human, political and public character of themes related to sexual and gender diversity. This dissertation looks at the Deu na Semana section, housed in the YouTube channel Põe na Roda. This is a news video on the video platform that gathers news about the LGBT population. In this sense, we seek to understand how the internet and social networks have reconfigured the ways of production, circulation and recirculation of news bringing new actors in a context of participatory and activist journalism. And, under the light of journalism theories, such as Gatekeeping (WHITE, 1950) and Newsmaking (TUCHMAN, 1978), one investigates how news selection, articulated to the seizure of noticiability criteria of the major press, helps to build a new reality of the LGBT population from the frameworks and cuts of themes related to the conquest of rights, representativeness, fight against homophobia and support for the LGBT cause.
|
56 |
[pt] MODELOS DE PROGRAMAÇÃO ESTOCÁSTICA COM AVERSÃO A RISCO: CONSEQUÊNCIAS PRÁTICAS DA APLICAÇÃO DE CONCEITOS TEÓRICOS / [en] RISK AVERSE STOCHASTIC PROGRAMMING MODELS: PRACTICAL CONSEQUENCES OF THEORETICAL CONCEPTSDAVI MICHEL VALLADAO 17 November 2021 (has links)
[pt] Esta tese é composta por quatro artigos que descrevem diferentes formas de inclusão de aversão a risco em problemas dinâmicos, ressaltando seus aspectos teóricos e consequências práticas envolvidas em técnicas de otimização sob incerteza aplicadas a problemas financeiros. O primeiro artigo propões uma interpretação econômica e analisa as consequencias práticas da consistência temporal, em que particular para o problema de seleção de portfólio. No segunfo artigo, também aplicado à seleção de portfólio, é proposto um modelo que considera empréstimo como variável de decisão e uma função convexa e linear por partes que representa a existência de diversos credores com diferentes limites de crédito e taxas de juros. A performance do modelo proposto é melhor que as aproximações existentes e garante otimalidade para a situação de vários credores. No terceiro artigo, desenvolve-se um modelo de emissão de títulos de dívida de uma empresa que seja financiar um conjunto pré-determinado de projetos. Trata-se de um modelo de otimização dinâmico sob incerteza que considera títulos pré e pós-fixados com diferentes maturidades e formas de amortização. As principais contribuições são o tratammento de um horizonte longuíssimo prazo através de uma estrutura híbrida dos cenários; a modelagem detalhada do pagamento de cupons e amortizações; o desenvolvimento de uma função objetivo multi-critério que reflete o trade-off entre risco-retorno além de outras medidas de performance financeiras como a taxa de alavancagem (razão passivos sobre ativos). No quarto artigo é desenvolvido um modelo de programação estocástica multi-estágio para obter a política ótima de caixa de uma empresa cujo custo de investimento e o custo da dívida são incertos e modelados em diferentes regimes. As contribuições são a extensão de metodologia de equilíbrio dual para um modelo estocástico; a proposição de uma regra de decisão baseada na estrutura de regime dos fatores de risco que aproxima de forma satisfatória o modelo original. / [en] This PhD Thesis is composed of four working papers, each one with a respective chapter on this thesis, with contributions on risk averse stochastic programming models. In particular, it focuses on analyzing the practical consequences of certain theoretical concepts of decision theory, finance and optimization. The first working paper analyzes the practical consequences and the economic interpretation of time consistent optimal policies, in particular for well known portfolio selection problem. The second paper has
also a contribution to the portfolio selection literature. Indeed, we develop leverage optimal strategy considering a single-period debt with a piecewise linear borrowing cost function, which represents the actual situation faced by investors, and show a significant gap in comparison to the suboptimal
solutions obtained by the usual linear approximation. Moreover, we develop a multistage extension where our cost function indirectly penalizes the excess of leverage, which is closely related to the contribution of the next working paper. The contribution of the third working paper is to penalize excess of leverage in a debt issuance multistage model that optimizes over several types of bonds with fixed or floating rate, different maturities and amortization patterns. For the sake of dealing with the curse of dimensionality of a long term problem, we divide the planning horizon into a detailed part at the beginning followed by a policy rule approximation for the remainder. Indeed, our approximation mitigates the end effects of a
truncated model which is closely related to the contributions of the forth working paper. The forth paper develops a multistage model that seeks to obtain the optimal cash holding policy of a firm. The main contributions are a methodology to end effect treatment for a multistage model with
infinite horizon and the development of a policy rule as approximation of the optimal solution.
|
57 |
[en] AUTOMATIC COMBINATION AND SELECTION OF DATABASE TUNING ACTIONS / [pt] COMBINAÇÃO E SELEÇÃO AUTOMÁTICA DE AÇÕES DE SINTONIA FINARAFAEL PEREIRA DE OLIVEIRA 29 June 2020 (has links)
[pt] O processo de combinação de ações de sintonia fina não possui nem uma formulação precisa, nem uma abordagem formal para solucioná-lo. É necessário definir o que combinar dentre as múltiplas ações existentes e, uma vez escolhidas, como compor de maneira que as restrições sejam verificadas. Trata-se de um problema complexo e relevante na área de bancos de dados, tanto para soluções manuais pelo DBA como automáticas, por meio de softwares especializados. Isto ocorre pois os diferentes tipos de ações de
sintonia possuem estratégias distintas para alcançar o objetivo em comum. Esta tese propõe um método automático para geração e seleção de soluções combinadas de sintonia fina para bancos de dados relacionais. Discute-se como combinar soluções e respeitar as restrições tecnológicas e recursos
computacionais disponíveis. Por fim, apresenta-se uma implementação e avaliação utilizando três SGBDs de mercado relevantes, em que mostramos tanto a eficácia como a eficiência do método proposto. Os resultados mostraram que o método é capaz de produzir soluções combinadas válidas mais eficientes que soluções locais independentes. / [en] The process of combining database tuning actions has neither a precise formulation nor a formal approach to solving it. It is necessary to define what to combine among multiple existing operations and, once chosen, how to compose so that constraints can be verified. It is a complex and relevant problem in the database research area, both for the DBA manual solutions, and automatic ones using specialized software. It is important because the different types of tuning actions have different strategies to achieve a common goal. This thesis proposes an automated method for generating and selecting combined tuning solutions for relational databases. It discusses how to mix solutions and still respect both the technological constraints and available computational resources. Finally, we present an implementation and evaluation using three relevant market DBMSs, where we show both the effectiveness and the efficiency of the proposed method.
The results showed that the technique is capable of producing combined solutions that are more efficient than independent local solutions.
|
58 |
[en] OPTIMIZATION UNDER UNCERTAINTY FOR ASSET ALLOCATION / [pt] OTIMIZAÇÃO SOB INCERTEZA PARA ALOCAÇÃO DE ATIVOSTHUENER ARMANDO DA SILVA 27 April 2016 (has links)
[pt] A alocação de ativos é uma das mais importantes decisões financeiras
para investidores. No entanto, as decisões humanas não são totalmente racionais.
Sabemos que as pessoas cometem muitos erros sistemáticos como, excesso
de confiança, aversão à perda irracional e mau uso da informação entre outros.
Nesta tese desenvolvemos duas metodologias distintas para enfrentar esse problema.
A primeira abordagem é qualitativa, utiliza o modelo de Black-Litterman
e tenta mapear a visão que o investidor tem do mercado. Esse método tenta
mitigar a irracionalidade na tomada de decisão tornando mais fácil para um investidor
demonstrar suas preferências em relação aos ativos. Black e Litterman
desenvolveram um método para otimização de carteiras com a proposta de melhorar
o modelo Markowitz, utilizando a construção de visões para representar
a opinião do investidor sobre o futuro. No entanto, a forma de construir essas
visões é bastante confusa e exige que o investidor estime vários parâmetros
que são subjetivos. Assim, propomos uma nova forma de criar essas visões,
utilizando Análise Verbal de Decisão. A segunda pesquisa envolve métodos
quantitativos para resolver o problema de alocação de ativos com múltiplos
estágios com premissas mais realistas. Embora a Programação Dinâmica Dual
Estocástica (PDDE) seja uma técnica promissora para a solução de problemas
de grande porte, não é adequada para o problema de alocação de ativos devido
à dependência temporal associada aos retornos dos ativos. PDDE assume que
o processo estocástico tem independência por estágio assegurando uma função
única de custo futuro para cada estágio. No problema de alocação de ativos, a
dependência do tempo é tipicamente não-linear e no lado esquerdo, o que torna
PDDE tradicional não aplicável. Propomos uma variação do PDDE usando
modelo oculto de Markov com estados discretos para resolver problemas reais
de alocação de ativos com múltiplos períodos e dependência no tempo. Ambas
as abordagens foram testadas em dados reais e empiricamente analisadas. As
principais contribuições são as metodologia desenvolvidas para simplificar a
construção de portfólios e para resolver o problema de alocação de ativos com
múltiplos estágios. / [en] Asset allocation is one of the most important financial decisions made
by investors. However, human decisions are not fully rational, and people
make several systematic mistakes due to overconfidence, irrational loss aversion
and misuse of information, among others. In this thesis, we developed two
distinct methodologies to tackle this problem. The first approach has a more
qualitative view, trying to map the investor s vision of the market. It tries to
mitigate irrationality in decision-making by making it easier for an investor to
demonstrate his/her preferences for specirfic assets. This first research uses the
Black-Litterman model to construct portfolios. Black and Litterman developed
a method for portfolio optimization as an improvement over the Markowitz
model. They suggested the construction of views to represent an investor s
opinion about future stocks returns. However, constructing these views has
proven difficult, as it requires the investor to quantify several subjective
parameters. This work investigates a new way of creating these views by using
Verbal Decision Analysis. The second research focuses on quantitative methods
to solve the multistage asset allocation problem. More specifically, it modifies
the Stochastic Dynamic Dual Programming (SDDP) method to consider real
asset allocation models. Although SDDP is a consolidated solution technique
for large-scale problems, it is not suitable for asset allocation problems due
to the temporal dependence of returns. Indeed, SDDP assumes a stagewise
independence of the random process assuring a unique cost-to-go function
for each time stage. For the asset allocation problem, time dependency is
typically nonlinear and on the left-hand side, which makes traditional SDDP
inapplicable. This thesis proposes an SDDP variation to solve real asset
allocation problems for multiple periods, by modeling time dependence as a
Hidden Markov Model with concealed discrete states. Both approaches were
tested in real data and empirically analyzed. The contributions of this thesis
are the methodology to simplify portfolio construction and the methods to
solve real multistage stochastic asset allocation problems.
|
59 |
[en] NON-PARAMETRIC ESTIMATIONS OF INTEREST RATE CURVES : MODEL SELECTION CRITERION: MODEL SELECTION CRITERIONPERFORMANCE DETERMINANT FACTORS AND BID-ASK S / [pt] ESTIMAÇÕES NÃO PARAMÉTRICAS DE CURVAS DE JUROS: CRITÉRIO DE SELEÇÃO DE MODELO, FATORES DETERMINANTES DEDESEMPENHO E BID-ASK SPREADANDRE MONTEIRO DALMEIDA MONTEIRO 11 June 2002 (has links)
[pt] Esta tese investiga a estimação de curvas de juros sob o
ponto de vista de métodos não-paramétricos. O texto está
dividido em dois blocos. O primeiro investiga a questão do
critério utilizado para selecionar o método de melhor
desempenho na tarefa de interpolar a curva de juros
brasileira em uma dada amostra. Foi proposto um critério
de
seleção de método baseado em estratégias de re-amostragem
do tipo leave-k-out cross validation, onde K k £ £ 1
e K é função do número de contratos observados a cada
curva
da amostra. Especificidades do problema reduzem o esforço
computacional requerido, tornando o critério factível. A
amostra tem freqüência diária: janeiro de 1997 a
fevereiro
de 2001. O critério proposto apontou o spline cúbico
natural -utilizado com método de ajuste perfeito aos
dados - como o método de melhor desempenho. Considerando
a
precisão de negociação, este spline mostrou-se não
viesado. A análise quantitativa de seu desempenho
identificou, contudo, heterocedasticidades nos erros
simulados. A partir da especificação da variância
condicional destes erros e de algumas hipóteses, foi
proposto um esquema de intervalo de segurança para a
estimação de taxas de juros pelo spline cúbico natural,
empregado como método de ajuste perfeito aos
dados. O backtest sugere que o esquema proposto é
consistente, acomodando bem as hipóteses e aproximações
envolvidas. O segundo bloco investiga a estimação da
curva
de juros norte-americana construída a partir dos
contratos
de swaps de taxas de juros dólar-Libor pela Máquina de
Vetores Suporte (MVS), parte do corpo da Teoria do
Aprendizado Estatístico. A pesquisa em MVS tem obtido
importantes avanços teóricos, embora ainda sejam escassas
as implementações em problemas reais de regressão. A MVS
possui características atrativas para a modelagem de
curva
de juros: é capaz de introduzir já na estimação
informações
a priori sobre o formato da curva e sobre aspectos da
formação das taxas e liquidez de cada um dos contratos a
partir dos quais ela é construída. Estas últimas são
quantificadas pelo bid-ask spread (BAS) de cada contrato.
A formulação básica da MVS é alterada para assimilar
diferentes valores do BAS sem que as propriedades dela
sejam perdidas. É dada especial atenção ao levantamento
de
informação a priori para seleção dos parâmetros da MVS a
partir do formato típico da curva. A amostra tem
freqüência diária: março de 1997 a abril de 2001. Os
desempenhos fora da amostra de diversas especificações da
MVS foram confrontados com aqueles de outros métodos de
estimação. A MVS foi o método que melhor controlou o
trade-
off entre viés e variância dos erros. / [en] This thesis investigates interest rates curve estimation
under non-parametric approach. The text is divided into two
parts. The first one focus on which criterion to use to
select the best performance method in the task of
interpolating Brazilian interest rate curve. A selection
criterion is proposed to measure out-of-sample performance
by combining resample strategies leave-k-out cross
validation applied upon the whole sample curves, where K k
£ £ 1 and K is function of observed contract number in each
curve. Some particularities reduce substantially
the required computational effort, making the proposed
criterion feasible. The data sample range is daily, from
January 1997 to February 2001. The proposed criterion
selected natural cubic spline, used as data perfect-fitting
estimation method. Considering the trade rate
precision, the spline is non-biased. However, quantitative
analysis of performance determinant factors showed the
existence of out-of-sample error heteroskedasticities. From
a conditional variance specification of these errors,
a security interval scheme is proposed for
interest rate generated by perfect-fitting natural cubic
spline. A backtest showed that the proposed security
interval is consistent, accommodating the evolved
assumptions and approximations.
The second part estimate US free-for-floating interest rate
swap contract curve by using Support Vector Machine (SVM),
a method derived from Statistical Learning Theory.
The SVM research has got important theoretical results,
however the number of implementation on real regression
problems is low. SVM has some attractive characteristics
for interest rates curves modeling: it has the ability to
introduce already in its estimation process a priori
information about curve shape and about liquidity and price
formation aspects of the contracts that generate the curve.
The last information set is quantified by the bid-ask
spread. The basic SVM formulation is changed in order to be
able to incorporate the different values for bid-ask
spreads, without losing its properties. Great attention is
given to the question of how to extract a priori
information from swap curve typical shape to be used in
MVS parameter selection. The data sample range is daily,
from March 1997 to April 2001.
The out-of-sample performances of different SVM
specifications are faced with others
method performances. SVM got the better control of trade-
off between bias and variance of out-of-sample errors.
|
Page generated in 0.0347 seconds