Spelling suggestions: "subject:"selecciona"" "subject:"seleccionado""
81 |
[en] SEMANTIC ROLE-LABELING FOR PORTUGUESE / [pt] ANOTADOR DE PAPEIS SEMÂNTICOS PARA PORTUGUÊSARTHUR BELTRAO CASTILHO NETO 23 June 2017 (has links)
[pt] A anotação de papeis semânticos (APS) é uma importante tarefa do processamento de linguagem natural (PLN), que possibilita estabelecer uma relação de significado entre os eventos descritos em uma sentença e seus participantes. Dessa forma, tem o potencial de melhorar o desempenho de inúmeros outros sistemas, tais como: tradução automática, correção ortográfica, extração e recuperação de informações e sistemas de perguntas e respostas, uma vez que reduz as ambiguidades existentes no texto de entrada. A grande maioria dos sistemas de APS publicados no mundo realiza a tarefa empregando técnicas de aprendizado supervisionado e, para obter melhores resultados, usam corpora manualmente revisados de tamanho considerável. No caso do Brasil, o recurso lexical que possui anotações semânticas (Propbank.br) é muito menor. Por isso, nos últimos anos, foram feitas tentativas de melhorar esse resultado utilizando técnicas de aprendizado semisupervisionado ou não-supervisionado. Embora esses trabalhos tenham contribuido direta e indiretamente para a área de PLN, não foram capazes de superar o desempenho dos sistemas puramente supervisionados. Este trabalho apresenta uma abordagem ao problema de anotação de papéis semânticos no idioma português. Utilizamos aprendizado supervisionado sobre um conjunto de 114 atributos categóricos e empregando duas técnicas de regularização de domínio, combinadas para reduzir o número de atributos binários em 96 por cento. O modelo gerado usa uma support vector machine com solver L2-loss dual support vector classification e é testado na base PropBank.br, apresentando desempenho ligeiramente superior ao estado-da-arte. O sistema é avaliado empiricamente pelo script oficial da CoNLL 2005 Shared Task, obtendo 82,17 por cento de precisão, 82,88 por cento de cobertura e 82,52 por cento de F1 ao passo que o estado-da-arte anterior atinge 83,0 por cento de precisão, 81,7 por cento de cobertura e 82,3 por cento de F1. / [en] Semantic role-labeling (SRL) is an important task of natural language processing (NLP) which allows establishing meaningful relationships between events described in a given sentence and its participants. Therefore, it can potentially improve performance on a large number of NLP systems such as automatic translation, spell correction, information extraction and retrieval and question answering, as it decreases ambiguity in the input text. The vast majority of SRL systems reported so far employed supervised learning techniques to perform the task. For better results, large sized manually reviewed corpora are used. The Brazilian semantic role labeled lexical resource (Propbank.br) is much smaller. Hence, in recent years, attempts have been made to improve performance using semi supervised and unsupervised learning. Even making several direct and indirect contributions to NLP, those studies were not able to outperform exclusively supervised systems. This paper presents an approach to the SRL task in Portuguese language using supervised learning over a set of 114 categorical features. Over those, we apply a combination of two domain regularization methods to cut binary features down to 96 percent. We test a SVM model (L2-loss dual support vector classification) on PropBank.Br dataset achieving results slightly better than state-of-the-art. We empirically evaluate the system using official CoNLL 2005 Shared Task script pulling 82.17 percent precision, 82.88 percent coverage and 82.52 percent F1. The previous state-of-the-art Portuguese SRL system scores 83.0 percent precision, 81.7 percent coverage and 82.3 percent F1.
|
82 |
[en] REFLECTED IDENTITIES: A STUDY ON THE IMAGE OF BRAZILIAN LITERATURE PRODUCED BY TRANSLATION / [pt] IDENTIDADES REFLETIDAS: UM ESTUDO SOBRE A IMAGEM DA LITERATURA BRASILEIRA CONSTRUÍDA POR TRADUÇÃOMARIA LUCIA SANTOS DAFLON GOMES 21 September 2005 (has links)
[pt] O presente estudo tem como objetivo primeiro examinar,
segundo a teoria dos
polissistemas de Itamar Even-Zohar e a abordagem
descritivista da tradução de André
Lefevere e Gideon Toury, a literatura brasileira traduzida
para o inglês a partir de
1990. O estudo se fundamentará em uma análise do perfil
das obras em tradução nos
últimos quatorze anos, a qual, por sua vez, servirá de
base para um exame das forças
que determinaram a seleção, a tradução e a circulação de
obras brasileiras nos
polissistemas de língua inglesa. Nesse sentido, o presente
estudo abordará também
aspectos do mercado editorial atual, seu crescimento, sua
profissionalização e o
fortalecimento do papel do agente literário no fomento da
tradução de obras
brasileiras. Em um segundo momento, este estudo se
dedicará à analise da trajetória
de obras de Caio Fernando Abreu, Chico Buarque e Patrícia
Melo nos polissistemas
de língua inglesa, particularmente nos Estados Unidos e na
Inglaterra. A partir das
análises propostas, a conclusão abordará aspectos
relacionados à recepção das obras
brasileiras, tanto no nível mercadológico como no nível
acadêmico, e à representação
de identidades culturais brasileiras, especialmente no que
diz respeito ao ambiente
urbano, cenário da literatura desses três autores. / [en] The main purpose of this study is to examine Brazilian
literature translated into
English as of 1990, based on Itamar Even-Zohar`s
Polysystem Theory and on the
descriptive approach to translation of Andre Lefevere and
Gideon Toury. The study
will analyze the characteristics of works translated
during the last fourteen years and
will serve as a basis to examine the determining forces in
the selection, translation
and circulation of Brazilian literary works in English-
language polysystems. Hence,
the present study will also examine aspects of the current
publishing industry, its
professionalization, and the growing role of the literary
agent in promoting translation
of Brazilian works. Secondly, this study will analyze the
trajectory of works by
authors such as Caio Fernando Abreu, Chico Buarque and
Patricia Melo in English
polysystems, particularly in the United States and Great
Britain. Based on the
proposed analyses, the conclusion of the study will
discuss aspects related to how
Brazilian works are received (both in the market and in
academia) and how Brazilian
cultural identities are represented, especially with
regard to the urban environment,
which is the main setting in the literary works of the
three above-cited authors.
|
83 |
[en] PRECODING AND RESOURCE ALLOCATION FOR CELL-FREE MASSIVE MIMO SYSTEMS / [pt] PRÉ-CODIFICAÇÃO E ALOCAÇÃO DE RECURSOS EM SISTEMAS DE MÚLTIPLAS ANTENAS MASSIVOS LIVRES DE CÉLULAS03 December 2020 (has links)
[pt] Sistemas de múltiplas antenas livres de células surgiram recentemente
como uma combinação de MIMO massivo, sistemas de antenas distribuídas
(DAS) e network MIMO. Esta dissertação explora o downlink deste cenário
com pontos de acesso (PAs) de uma ou múltiplas antenas e considerando conhecimento perfeito e imperfeito do canal. São desenvolvidos esquemas que
combinam pré-codificação, alocação de potência e seleção de PAs (SPA).
Para começar, duas estratégias de SPA foram investigadas, uma baseada
em busca exaustiva (BE-SPA) e a outra em coeficientes de desvanecimento
de larga escala (LE-SPA), com o intuito de reduzir a complexidade das redes
livres de células. Subsequentemente, apresentamos duas técnicas iterativas
de pré-codificação, todas seguindo o critério Minimum Mean-Square Error
(MMSE), combinadas à restrição de potência total. A primeira nós chamamos
de MMSE, com restrição de potência total. Nós também incorporamos
robustez ao método desenvolvido chamado RMMSE, um pré-codificador
robusto com restrição de potência total. Como terceiro elemento da configuração
proposta, esquemas de alocação de potência foram desenvolvidos,
com abordagens ótimas, adaptativas e uniformes. Um algoritmo de alocação
de potência ótima (APO) é apresentado, baseado na maximização da
mínima Signal-to-Interference-plus-Noise Ratio (SINR). A solução adaptativa
(APA) é caracterizada pelo gradiente estocástico (GE) do mean-square
error (MSE) e a alternativa uniforme (UPA) propõe a equalização de todos
os coeficientes de potência. Todas as configurações devem respeitar a restrição
de potência por antena, imposta pelo sistema. Uma análise de soma
das taxas é feita, para todas as técnicas estudadas e o custo computacional
de cada uma delas é calculado. Resultados numéricos provam que as
técnicas propostas têm performance superior à pré-codificadores Conjugate
Beamforming (CB) e Zero-Forcing (ZF), ambos com alocação de potência
uniforme e ótima, na forma de taxa de erro de bit (BER), soma das taxas
e mínima SINR. Além disso, os resultados atestam que o desempenho pode
ser mantido e até melhorado com a aplicação de SPA. / [en] Cell-Free Massive multiple-input multiple-output (MIMO) systems
have emerged in recent years as a combination of massive MIMO, distributed
antenna systems (DAS) and network MIMO. This thesis explores the
downlink channel of such scenario with single and multiple-antenna access
points (APs) and takes into account both perfect and imperfect channel
state information (CSI). We propose transmit processing schemes that
combine precoding, power allocation and AP selection (APS). To begin
with, two APS strategies have been investigated, one based on exhaustive
search (ES-APS) and the other on the large-scale fading coefficients (LSAPS),
in order to reduce the complexity of cell-free networks. Subsequently,
we present two iterative precoding techniques following the minimum meansquare
error (MMSE) criterion with total power constraint. The first we
call MMSE, with total power constraint. We also incorporate robustness
in the developed method, called RMMSE, a robust precoder with total
power constraint. As the third element of the proposed schemes, power
allocation techniques are developed, with optimal, adaptive and uniform
approaches. An optimal power allocation (OPA) algorithm is presented
based on the maximization of the minimum signal-to-interference-plus-noise
ratio (SINR). The adaptive solution (APA) is characterized by the stochastic
gradient of the mean-square error (MSE) and the uniform alternative (UPA)
proposes to equalize all power coefficients. All configurations must fulfil an
antenna power constraint, imposed by the system. A sum-rate analysis is
carried out for all studied techniques and the computational cost of each
one is calculated. Numerical results prove that the proposed techniques
outperform existing conjugate beamforming (CB) and zero-forcing (ZF)
precoders, both with uniform and optimal power allocation, in terms of
bit error rate (BER), sum-rate and minimum SINR. Furthermore, we also
attest that performance can be maintained or even improved in the presence
of APS.
|
84 |
[pt] APRENDIZADO DE MÁQUINA PARA DETECÇÃO DE FALHAS NO TRATAMENTO DE EFLUENTES INDUSTRIAIS DA INDÚSTRIA DE PANIFICAÇÃO POR ELETROCOAGULAÇÃO / [en] MACHINE LEARNING FOR FAILURE DETECTION IN BAKERY INDUSTRIAL EFFLUENTS TREATMENT BY ELECTROCOAGULATIONTHIAGO DA SILVA RIBEIRO 19 October 2023 (has links)
[pt] A eletrocoagulação é um método emergente de tratamento de efluentes que
combina os benefícios da coagulação, flotação e eletroquímica. Devido à
complexidade inerente às operações de uma estação de tratamento de efluentes, é
um desafio reagir com rapidez e precisão às condições dinâmicas necessárias para
manter a qualidade do efluente. Portanto, esta tese tem como objetivo identificar a
condição operacional de uma estação de tratamento de efluentes que adotou a
eletrocoagulação para o tratamento de efluentes de panificação. Três condições
operacionais baseadas em clarificação do efluente e lodo da reação foram as
variáveis-alvo. A tese está dividida em dois ensaios. O primeiro usou sete métodos
de seleção de atributos para selecionar as variáveis mais importantes em um
determinado conjunto de dados. O desempenho dos modelos de classificação de
redes neurais treinados no conjunto de atributos original foi comparado ao
desempenho daqueles que foram treinados em um subconjunto curado usando
técnicas de seleção de atributos. O modelo que utilizou a seleção de atributos
apresentou o melhor desempenho (F1-score = 0,92) e uma melhoria de mais de 30 por cento
na prevenção de falsos positivos. A segunda contribuição trouxe um modelo que
poderia detectar o comportamento anômalo do processo usando apenas imagens
coloridas da superfície do efluente obtidas através de dois módulos de câmera de
tamanho pequeno. O desempenho de vários métodos, incluindo MLP, LSTM, SVM
e XGBoost foi avaliado. O modelo LSTM superou os outros em termos de Precisão
(84,620 por cento), Recall (84,531 por cento) e F1-score (84,499 por cento), mas o modelo XGBoost vem
em segundo lugar com Precisão (83,922 por cento), Recall (82,272 por cento) e F1-score
(83,005 por cento). / [en] Electrocoagulation is an emerging wastewater treatment method that
combines the benefits of coagulation, flotation, and electrochemistry. As a result of
the inherent complexity of processes associated with wastewater treatment plants,
it is difficult to respond swiftly and correctly to the dynamic circumstances that are
necessary to ensure effluent quality. Therefore, this thesis aims to identify the
operational condition of a wastewater treatment plant that has adopted
electrocoagulation for treating bakery wastewater. Three operational conditions
based on effluent clarification and reaction sludge were the target variables. The
thesis is divided into two essays. The first endeavor used seven feature selection
methods to select the most important features in a given dataset. The performance
of neural network classification models trained on the original feature set was
compared to the performance of those that were trained on a subset of features that
had been curated using feature selection techniques. The model that utilised feature
selection was found to have the best performance (F1-score = 0.92) and an
improvement of more than 30 percent in preventing false positives. The second
contribution brought a model that could detect anomalous process behavior using
only wastewater surface color images from two small-size camera modules. The
performance of various methods, including MLP, LSTM, SVM, and XGBoost was
assessed. The LSTM model outperformed the others in terms of macro average
Precision (84.620 percent), Recall (84.531 percent), and F1-score (84.499 percent), but the XGBoost
model comes closely in second with Precision (83.922 percent), Recall (82.272 percent), and
F1-score (83.005 percent).
|
85 |
[en] CONTINGENCIES, INTERVENTIONS AND RESULTS FROM THE REVIEW PHASE OF THE SUPPLIER PERFORMANCE MEASUREMENT SYSTEM: AN ACTION RESEARCH AT A PUBLIC SECTOR COMPANY / [pt] CONTINGÊNCIAS, INTERVENÇÕES E RESULTADOS DA FASE DE REVISÃO DO SISTEMA DE MEDIÇÃO DE DESEMPENHO DE FORNECEDORES: UMA PESQUISA-AÇÃO EM UMA EMPRESA DO SETOR PÚBLICOMATHEUS ALLGAIER 27 March 2023 (has links)
[pt] O Sistema de Medição de Desempenho de Fornecedores (SMDF) é uma
ferramenta para avaliar, medir e monitorar o desempenho dos fornecedores. O
interesse em SMDF é grande na academia, tornando-se um tema frequente na
literatura. Contudo, ainda existem lacunas pouco exploradas por pesquisadores no
tema, como a fase de revisão de um SMDF e a sua aplicação no setor público. Neste
contexto, a presente pesquisa de mestrado avalia a eficácia da fase de revisão de um
SMDF de uma empresa estatal brasileira de grande porte, que precisou se adequar
às alterações legislativas e aos feedbacks de suas equipes de gestão contratual,
compradores e fornecedores, buscando aumentar a confiança do sistema junto a
estas partes interessadas. Com o suporte da literatura e o trabalho colaborativo de
diversos departamentos da empresa, esta pesquisa-ação acompanhou cinco
intervenções realizadas no SMDF corrente da empresa, sendo elas o aumento da
transparência, a melhoria na tempestividade das avaliações, a implementação da
funcionalidade de revisão de avaliações, a implementação da funcionalidade de
justificativas de avaliações, e a revisão dos questionários e métricas de avaliações.
Como resultado das intervenções, observou-se melhoria no relacionamento com os
fornecedores, o aumento significativo no uso do Índice de Desempenho de
Fornecedores (IDF) como critério seleção e habilitação de fornecedores, e o
aumento no desempenho de contratos novos e em andamento. O trabalho oferece
um framework, inspirado na teoria organizacional das contingências, apresentando
o contexto inicial, as intervenções realizadas através da ótica das dimensões
Humana, Tecnológica e Organizacional, e os resultados identificados, propiciando
orientações e implicações diretas para praticantes da indústria e pesquisadores
acadêmicos e reduzindo a lacuna entre teoria e prática. / [en] The Supplier Performance Measurement System (SPMS) is a tool for
assessing, measuring, and monitoring supplier performance. There is great interest
in SPMS in the academia, becoming a frequent theme in the literature. However,
there are still gaps little explored by researchers in the subject, such as the review
phase of an SPMS and its application in the public sector. In this context, this
master s research evaluates the effectiveness of the review phase of an SPMS of a
large Brazilian state-owned company, which had to adapt to legislative changes and
feedback from its contract management teams, buyers and suppliers, seeking to
increase the confidence of the system with these stakeholders. With the support of
the literature and the collaborative work of several departments, the company
carried out five interventions in the SPMS, including raising its transparency,
improving the timing of assessments, implementation of the assessment review
functionality, implementation of the assessment justifications functionality, and
review of questionnaires and evaluation metrics. As a result of the interventions,
there was an improvement in the relationship with suppliers, the significant increase
in the use of the Supplier Performance Index (SPI) as a criterion for selecting and
enabling suppliers and increasing the performance of new and ongoing contracts.
This research offers a framework, inspired by the organizational contingency
theory, presenting the initial context, interventions performed through the
perspective of Human, Technological and Organizational dimensions (HTO), and
the identified results, which provides guidance and direct implications for industry
practitioners and academic researchers, reducing the gap between theory and
practice.
|
86 |
[en] RECIRCULATION AND REMIXING OF NEWS IN LGBT ACTIVISM: AN ANALYSIS OF THE NEWSPAPER GAVE IN THE WEEK / [pt] RECIRCULAÇÃO E REMIXAGEM DE NOTÍCIA NO ATIVISMO LGBT: UMA ANÁLISE DO JORNAL DEU NA SEMANACARLYLE SANTOS JUNIOR 14 November 2019 (has links)
[pt] Os debates acerca de questões relativas à orientação sexual e identidade de gênero têm sido colocados na arena pública para compreender comportamentos, a relação com o corpo, os anseios e as dificuldades enfrentados por gays, lésbicas, travestis, transexuais e transgêneros (LGBT) na sociedade brasileira. São indivíduos que desafiam e desestabilizam a ordem vigente assentada na heteronormatividade e no binômio masculino e feminino e, a partir disso, buscam reconhecimento para garantir direitos e o fim de inúmeras violações. Em decorrência disso, as narrativas jornalísticas buscam captar com mais amplitude e empatia o caráter político e público de temas ligados à diversidade sexual e de gênero. Esta dissertação se debruça sobre a seção Deu na semana, abrigada no canal do YouTube Põe na Roda, que trata-se de um noticiário na plataforma de vídeos que reúne notícias sobre a população LGBT. Nesse sentido, busca-se compreender como a internet e as redes sociais reconfiguraram os modos de produção, circulação e recirculação de notícias trazendo novos atores em um contexto de jornalismo participativo e ativista. E, sob a luz de teorias do jornalismo, como a do Gatekeeping (WHITE, 1950) e do Newsmaking (TUCHMAN, 1978), investiga-se como a seleção de notícias, articulada à apreensão de critérios de noticiabilidade da grande
imprensa, ajuda a construir uma nova realidade da população LGBT a partir de novos enquadramentos e recortes de temas ligados à conquista de direitos, representatividade, luta contra homofobia e apoio à causa LGBT. / [en] Discussions on issues of sexual orientation and gender identity have been put in the public arena to understand behaviors, the relationship with the body, the yearnings and the difficulties faced by gays, lesbians, transvestites, transsexuals and transgender (LGBT) people in society Brazilian. They are individuals who challenge and destabilize the prevailing order based on heteronormativity and the male and female binomial, and, from this, seek recognition to guarantee rights and the end of numerous violations. As a result, the journalistic narratives seek to capture with greater amplitude and empathy the human, political and public character of themes related to sexual and gender diversity. This dissertation looks at the Deu na Semana section, housed in the YouTube channel Põe na Roda. This is a news video on the video platform that gathers news about the LGBT population. In this sense, we seek to understand how the internet and social networks have reconfigured the ways of production, circulation and recirculation of news bringing new actors in a context of participatory and activist journalism. And, under the light of journalism theories, such as Gatekeeping (WHITE, 1950) and Newsmaking (TUCHMAN, 1978), one investigates how news selection, articulated to the seizure of noticiability criteria of the major press, helps to build a new reality of the LGBT population from the frameworks and cuts of themes related to the conquest of rights, representativeness, fight against homophobia and support for the LGBT cause.
|
87 |
[pt] MODELOS DE PROGRAMAÇÃO ESTOCÁSTICA COM AVERSÃO A RISCO: CONSEQUÊNCIAS PRÁTICAS DA APLICAÇÃO DE CONCEITOS TEÓRICOS / [en] RISK AVERSE STOCHASTIC PROGRAMMING MODELS: PRACTICAL CONSEQUENCES OF THEORETICAL CONCEPTSDAVI MICHEL VALLADAO 17 November 2021 (has links)
[pt] Esta tese é composta por quatro artigos que descrevem diferentes formas de inclusão de aversão a risco em problemas dinâmicos, ressaltando seus aspectos teóricos e consequências práticas envolvidas em técnicas de otimização sob incerteza aplicadas a problemas financeiros. O primeiro artigo propões uma interpretação econômica e analisa as consequencias práticas da consistência temporal, em que particular para o problema de seleção de portfólio. No segunfo artigo, também aplicado à seleção de portfólio, é proposto um modelo que considera empréstimo como variável de decisão e uma função convexa e linear por partes que representa a existência de diversos credores com diferentes limites de crédito e taxas de juros. A performance do modelo proposto é melhor que as aproximações existentes e garante otimalidade para a situação de vários credores. No terceiro artigo, desenvolve-se um modelo de emissão de títulos de dívida de uma empresa que seja financiar um conjunto pré-determinado de projetos. Trata-se de um modelo de otimização dinâmico sob incerteza que considera títulos pré e pós-fixados com diferentes maturidades e formas de amortização. As principais contribuições são o tratammento de um horizonte longuíssimo prazo através de uma estrutura híbrida dos cenários; a modelagem detalhada do pagamento de cupons e amortizações; o desenvolvimento de uma função objetivo multi-critério que reflete o trade-off entre risco-retorno além de outras medidas de performance financeiras como a taxa de alavancagem (razão passivos sobre ativos). No quarto artigo é desenvolvido um modelo de programação estocástica multi-estágio para obter a política ótima de caixa de uma empresa cujo custo de investimento e o custo da dívida são incertos e modelados em diferentes regimes. As contribuições são a extensão de metodologia de equilíbrio dual para um modelo estocástico; a proposição de uma regra de decisão baseada na estrutura de regime dos fatores de risco que aproxima de forma satisfatória o modelo original. / [en] This PhD Thesis is composed of four working papers, each one with a respective chapter on this thesis, with contributions on risk averse stochastic programming models. In particular, it focuses on analyzing the practical consequences of certain theoretical concepts of decision theory, finance and optimization. The first working paper analyzes the practical consequences and the economic interpretation of time consistent optimal policies, in particular for well known portfolio selection problem. The second paper has
also a contribution to the portfolio selection literature. Indeed, we develop leverage optimal strategy considering a single-period debt with a piecewise linear borrowing cost function, which represents the actual situation faced by investors, and show a significant gap in comparison to the suboptimal
solutions obtained by the usual linear approximation. Moreover, we develop a multistage extension where our cost function indirectly penalizes the excess of leverage, which is closely related to the contribution of the next working paper. The contribution of the third working paper is to penalize excess of leverage in a debt issuance multistage model that optimizes over several types of bonds with fixed or floating rate, different maturities and amortization patterns. For the sake of dealing with the curse of dimensionality of a long term problem, we divide the planning horizon into a detailed part at the beginning followed by a policy rule approximation for the remainder. Indeed, our approximation mitigates the end effects of a
truncated model which is closely related to the contributions of the forth working paper. The forth paper develops a multistage model that seeks to obtain the optimal cash holding policy of a firm. The main contributions are a methodology to end effect treatment for a multistage model with
infinite horizon and the development of a policy rule as approximation of the optimal solution.
|
88 |
[en] AUTOMATIC COMBINATION AND SELECTION OF DATABASE TUNING ACTIONS / [pt] COMBINAÇÃO E SELEÇÃO AUTOMÁTICA DE AÇÕES DE SINTONIA FINARAFAEL PEREIRA DE OLIVEIRA 29 June 2020 (has links)
[pt] O processo de combinação de ações de sintonia fina não possui nem uma formulação precisa, nem uma abordagem formal para solucioná-lo. É necessário definir o que combinar dentre as múltiplas ações existentes e, uma vez escolhidas, como compor de maneira que as restrições sejam verificadas. Trata-se de um problema complexo e relevante na área de bancos de dados, tanto para soluções manuais pelo DBA como automáticas, por meio de softwares especializados. Isto ocorre pois os diferentes tipos de ações de
sintonia possuem estratégias distintas para alcançar o objetivo em comum. Esta tese propõe um método automático para geração e seleção de soluções combinadas de sintonia fina para bancos de dados relacionais. Discute-se como combinar soluções e respeitar as restrições tecnológicas e recursos
computacionais disponíveis. Por fim, apresenta-se uma implementação e avaliação utilizando três SGBDs de mercado relevantes, em que mostramos tanto a eficácia como a eficiência do método proposto. Os resultados mostraram que o método é capaz de produzir soluções combinadas válidas mais eficientes que soluções locais independentes. / [en] The process of combining database tuning actions has neither a precise formulation nor a formal approach to solving it. It is necessary to define what to combine among multiple existing operations and, once chosen, how to compose so that constraints can be verified. It is a complex and relevant problem in the database research area, both for the DBA manual solutions, and automatic ones using specialized software. It is important because the different types of tuning actions have different strategies to achieve a common goal. This thesis proposes an automated method for generating and selecting combined tuning solutions for relational databases. It discusses how to mix solutions and still respect both the technological constraints and available computational resources. Finally, we present an implementation and evaluation using three relevant market DBMSs, where we show both the effectiveness and the efficiency of the proposed method.
The results showed that the technique is capable of producing combined solutions that are more efficient than independent local solutions.
|
89 |
[en] OPTIMIZATION UNDER UNCERTAINTY FOR ASSET ALLOCATION / [pt] OTIMIZAÇÃO SOB INCERTEZA PARA ALOCAÇÃO DE ATIVOSTHUENER ARMANDO DA SILVA 27 April 2016 (has links)
[pt] A alocação de ativos é uma das mais importantes decisões financeiras
para investidores. No entanto, as decisões humanas não são totalmente racionais.
Sabemos que as pessoas cometem muitos erros sistemáticos como, excesso
de confiança, aversão à perda irracional e mau uso da informação entre outros.
Nesta tese desenvolvemos duas metodologias distintas para enfrentar esse problema.
A primeira abordagem é qualitativa, utiliza o modelo de Black-Litterman
e tenta mapear a visão que o investidor tem do mercado. Esse método tenta
mitigar a irracionalidade na tomada de decisão tornando mais fácil para um investidor
demonstrar suas preferências em relação aos ativos. Black e Litterman
desenvolveram um método para otimização de carteiras com a proposta de melhorar
o modelo Markowitz, utilizando a construção de visões para representar
a opinião do investidor sobre o futuro. No entanto, a forma de construir essas
visões é bastante confusa e exige que o investidor estime vários parâmetros
que são subjetivos. Assim, propomos uma nova forma de criar essas visões,
utilizando Análise Verbal de Decisão. A segunda pesquisa envolve métodos
quantitativos para resolver o problema de alocação de ativos com múltiplos
estágios com premissas mais realistas. Embora a Programação Dinâmica Dual
Estocástica (PDDE) seja uma técnica promissora para a solução de problemas
de grande porte, não é adequada para o problema de alocação de ativos devido
à dependência temporal associada aos retornos dos ativos. PDDE assume que
o processo estocástico tem independência por estágio assegurando uma função
única de custo futuro para cada estágio. No problema de alocação de ativos, a
dependência do tempo é tipicamente não-linear e no lado esquerdo, o que torna
PDDE tradicional não aplicável. Propomos uma variação do PDDE usando
modelo oculto de Markov com estados discretos para resolver problemas reais
de alocação de ativos com múltiplos períodos e dependência no tempo. Ambas
as abordagens foram testadas em dados reais e empiricamente analisadas. As
principais contribuições são as metodologia desenvolvidas para simplificar a
construção de portfólios e para resolver o problema de alocação de ativos com
múltiplos estágios. / [en] Asset allocation is one of the most important financial decisions made
by investors. However, human decisions are not fully rational, and people
make several systematic mistakes due to overconfidence, irrational loss aversion
and misuse of information, among others. In this thesis, we developed two
distinct methodologies to tackle this problem. The first approach has a more
qualitative view, trying to map the investor s vision of the market. It tries to
mitigate irrationality in decision-making by making it easier for an investor to
demonstrate his/her preferences for specirfic assets. This first research uses the
Black-Litterman model to construct portfolios. Black and Litterman developed
a method for portfolio optimization as an improvement over the Markowitz
model. They suggested the construction of views to represent an investor s
opinion about future stocks returns. However, constructing these views has
proven difficult, as it requires the investor to quantify several subjective
parameters. This work investigates a new way of creating these views by using
Verbal Decision Analysis. The second research focuses on quantitative methods
to solve the multistage asset allocation problem. More specifically, it modifies
the Stochastic Dynamic Dual Programming (SDDP) method to consider real
asset allocation models. Although SDDP is a consolidated solution technique
for large-scale problems, it is not suitable for asset allocation problems due
to the temporal dependence of returns. Indeed, SDDP assumes a stagewise
independence of the random process assuring a unique cost-to-go function
for each time stage. For the asset allocation problem, time dependency is
typically nonlinear and on the left-hand side, which makes traditional SDDP
inapplicable. This thesis proposes an SDDP variation to solve real asset
allocation problems for multiple periods, by modeling time dependence as a
Hidden Markov Model with concealed discrete states. Both approaches were
tested in real data and empirically analyzed. The contributions of this thesis
are the methodology to simplify portfolio construction and the methods to
solve real multistage stochastic asset allocation problems.
|
90 |
[en] HEURISTICS FOR DATA POINT SELECTION FOR LABELING IN SEMI-SUPERVISED AND ACTIVE LEARNING CONTEXTS / [pt] HEURÍSTICAS PARA SELEÇÃO DE PONTOS PARA SEREM ANOTADOS NO CONTEXTO DEAPRENDIZADO SEMI- SUPERVISIONADO E ATIVOSONIA FIOL GONZALEZ 16 September 2021 (has links)
[pt] O aprendizado supervisionado é, hoje, o ramo do aprendizado de máquina
central para a maioria das inovações nos negócios. A abordagem depende de
ter grandes quantidades de dados rotulados, suficiente para ajustar funções com a precisão necessária. No entanto, pode ser caro obter dados rotulados ou criar os rótulos através de um processo de anotação. O aprendizado semisupervisionado (SSL) é usado para rotular com precisão os dados a partir de
pequenas quantidades de dados rotulados utilizando técnicas de aprendizado
não supervisionado. Uma técnica de rotulagem é a propagação de rótulos.
Neste trabalho, usamos especificamente o algoritmo Consensus rate-based label
propagation (CRLP). Este algoritmo depende do uma função de consenso para
a propagação. Uma possível função de consenso é a matriz de co-associação
que estima a probabilidade dos pontos i e j pertencem ao mesmo grupo. Neste trabalho, observamos que a matriz de co-associação contém informações
valiosas para tratar esse tipo de problema. Quando nenhum dado está rotulado, é comum escolher aleatoriamente, com probabilidade uniforme, os dados a serem rotulados manualmente, a partir dos quais a propagação procede. Este
trabalho aborda o problema de seleção de um conjunto de tamanho fixo de
dados para serem rotulados manualmente que propiciem uma melhor precisão
no algoritmo de propagação de rótulos. Três técnicas de seleção, baseadas
em princípios de amostragem estocástica, são propostas: Stratified Sampling
(SS), Probability (P), and Stratified Sampling - Probability (SSP). Eles são
todos baseados nas informações embutidas na matriz de co-associação. Os
experimentos foram realizados em 15 conjuntos de benchmarks e mostraram
resultados muito interessantes. Não só, porque eles fornecem uma seleção
mais equilibrada quando comparados a uma seleção aleatória, mas também
melhoram os resultados de precisão na propagação de rótulos. Em outro
contexto, essas estratégias também foram testadas dentro de um processo de
aprendizagem ativa, obtendo também bons resultados. / [en] Supervised learning is, today, the branch of Machine Learning central
to most business disruption. The approach relies on having amounts of labeled
data large enough to learn functions with the required approximation.
However, labeled data may be expensive, to obtain or to construct through
a labeling process. Semi-supervised learning (SSL) strives to label accurately data from small amounts of labeled data and the use of unsupervised learning techniques. One labeling technique is label propagation. We use specifically the Consensus rate-based label propagation (CRLP) in this work. A consensus function is central to the propagation. A possible consensus function is a coassociation
matrix that estimates the probability of data points i and j belong to the same group. In this work, we observe that the co-association matrix has valuable information embedded in it. When no data is labeled, it is common to choose with a uniform probability randomly, the data to manually label, from which the propagation proceeds. This work addresses the problem of selecting
a fixed-size set of data points to label (manually), to improve the label propagation algorithm s accuracy. Three selection techniques, based on stochastic sampling principles, are proposed: Stratified Sampling (SP), Probability (P), and Stratified Sampling - Probability (SSP). They are all based on the information embedded in the co-association matrix. Experiments were carried out on 15 benchmark sets and showed exciting results. Not only because they provide a more balanced selection when compared to a uniform random selection, but also improved the accuracy results of a label propagation method. These strategies were also tested inside an active learning process in a different
context, also achieving good results.
|
Page generated in 0.0351 seconds