Spelling suggestions: "subject:"aprendizagem dde maquinas"" "subject:"aprendizagem dde maquinaria""
91 |
[en] DECISION TREES WITH EXPLAINABLE RULES / [pt] ÁRVORES DE DECISÃO COM REGRAS EXPLICÁVEISVICTOR FEITOSA DE CARVALHO SOUZA 04 August 2023 (has links)
[pt] As árvores de decisão são estruturas comumente utilizadas em cenários
nos quais modelos explicáveis de Aprendizado de Máquina são desejados, por
serem visualmente intuitivas. Na literatura existente, a busca por explicabilidade
em árvores envolve a minimização de métricas como altura e número de
nós. Nesse contexto, definimos uma métrica de explicabilidade, chamada de
explanation size, que reflete o número de atributos necessários para explicar
a classificação dos exemplos. Apresentamos também um algoritmo, intitulado
SER-DT, que obtém uma aproximação O(log n) (ótima se P diferente NP) para a
minimização da altura no pior caso ou caso médio, assim como do explanation
size no pior caso ou caso médio. Em uma série de experimentos, comparamos
a implementação de SER-DT com algoritmos conhecidos da área, como CART e
EC2, além de testarmos o impacto de parâmetros e estratégias de poda nesses
algoritmos. SER-DT mostrou-se competitivo em acurácia com os algoritmos
citados, mas gerou árvores muito mais explicáveis. / [en] Decision trees are commonly used structures in scenarios where explainable
Machine Learning models are desired, as they are visually intuitive. In
the existing literature, the search for explainability in trees involves minimizing
metrics such as depth and number of nodes. In this context, we define
an explainability metric, called explanation size, which reflects the number of
attributes needed to explain the classification of examples. We also present an
algorithm, called SER-DT, which obtains an O(log n) approximation (optimal
if P different NP) for the minimization of depth in the worst/average case, as well
as of explanation size in the worst/average case. In a series of experiments,
we compared the SER-DT implementation with well-known algorithms in the
field, such as CART and EC2 in addition to testing the impact of parameters
and pruning strategies on these algorithms. SER-DT proved to be competitive
in terms of accuracy with the aforementioned algorithms, but generated much
more explainable trees.
|
92 |
[en] CAN MACHINE LEARNING REPLACE A REVIEWER IN THE SELECTION OF STUDIES FOR SYSTEMATIC LITERATURE REVIEW UPDATES? / [pt] MACHINE LEARNING PODE SUBSTITUIR UM REVISOR NA SELEÇÃO DE ESTUDOS DE ATUALIZAÇÕES DE REVISÕES SISTEMÁTICAS DA LITERATURA?MARCELO COSTALONGA CARDOSO 19 September 2024 (has links)
[pt] [Contexto] A importância das revisões sistemáticas da literatura (RSLs)
para encontrar e sintetizar novas evidências para Engenharia de Software (ES)
é bem conhecida, mas realizar e manter as RSLs atualizadas ainda é um grande
desafio. Uma das atividades mais exaustivas durante uma RSL é a seleção
de estudos, devido ao grande número de estudos a serem analisados. Além
disso, para evitar viés, a seleção de estudos deve ser conduzida por mais de um
revisor. [Objetivo] Esta dissertação tem como objetivo avaliar o uso de modelos
de classificação de texto de machine learning (ML) para apoiar a seleção de
estudos em atualizações de RSL e verificar se tais modelos podem substituir
um revisor adicional. [Método] Reproduzimos a seleção de estudos de uma
atualização de RSL realizada por três pesquisadores experientes, aplicando os
modelos de ML ao mesmo conjunto de dados que eles utilizaram. Utilizamos
dois algoritmos de ML supervisionado com configurações diferentes (Random
Forest e Support Vector Machines) para treinar os modelos com base na RSL
original. Calculamos a eficácia da seleção de estudos dos modelos de ML
em termos de precisão, recall e f-measure. Também comparamos o nível de
semelhança e concordância entre os estudos selecionados pelos modelos de
ML e os revisores originais, realizando uma análise de Kappa e da Distância
Euclidiana. [Resultados] Em nossa investigação, os modelos de ML alcançaram
um f-score de 0.33 para a seleção de estudos, o que é insuficiente para conduzir
a tarefa de forma automatizada. No entanto, descobrimos que tais modelos
poderiam reduzir o esforço de seleção de estudos em 33.9 por cento sem perda de
evidências (mantendo um recall de 100 por cento), descartando estudos com baixa
probabilidade de inclusão. Além disso, os modelos de ML alcançaram em
média um nível de concordância moderado com os revisores, com um valor
médio de 0.42 para o coeficiente de Kappa. [Conclusões] Os resultados indicam
que o ML não está pronto para substituir a seleção de estudos por revisores
humanos e também pode não ser usado para substituir a necessidade de um
revisor adicional. No entanto, há potencial para reduzir o esforço de seleção de
estudos das atualizações de RSL. / [en] [Context] The importance of systematic literature reviews (SLRs) to find
and synthesize new evidence for Software Engineering (SE) is well known, yet
performing and keeping SLRs up-to-date is still a big challenge. One of the most
exhaustive activities during an SLR is the study selection because of the large
number of studies to be analyzed. Furthermore, to avoid bias, study selection
should be conducted by more than one reviewer. [Objective] This dissertation
aims to evaluate the use of machine learning (ML) text classification models
to support the study selection in SLR updates and verify if such models can
replace an additional reviewer. [Method] We reproduce the study selection of
an SLR update performed by three experienced researchers, applying the ML
models to the same dataset they used. We used two supervised ML algorithms
with different configurations (Random Forest and Support Vector Machines) to
train the models based on the original SLR. We calculated the study selection
effectiveness of the ML models in terms of precision, recall, and f-measure.
We also compared the level of similarity and agreement between the studies
selected by the ML models and the original reviewers by performing a Kappa
Analysis and Euclidean Distance Analysis. [Results] In our investigation, the
ML models achieved an f-score of 0.33 for study selection, which is insufficient
for conducting the task in an automated way. However, we found that such
models could reduce the study selection effort by 33.9 percent without loss of evidence
(keeping a 100 percent recall), discarding studies with a low probability of being
included. In addition, the ML models achieved a moderate average kappa level
of agreement of 0.42 with the reviewers. [Conclusion] The results indicate that
ML is not ready to replace study selection by human reviewers and may also
not be used to replace the need for an additional reviewer. However, there is
potential for reducing the study selection effort of SLR updates.
|
93 |
[pt] ENSAIOS SOBRE NOWCASTING COM DADOS EM ALTA DIMENSÃO / [en] ESSAYS ON NOWCASTING WITH HIGH DIMENSIONAL DATAHENRIQUE FERNANDES PIRES 02 June 2022 (has links)
[pt] Em economia, Nowcasting é a previsão do presente, do passado recente ou
mesmo a previsão do futuro muito próximo de um determinado indicador.
Geralmente, um modelo nowcast é útil quando o valor de uma variável de
interesse é disponibilizado com um atraso significativo em relação ao seu
período de referência e/ou sua realização inicial é notavelmente revisada
ao longo do tempo, se estabilizando somente após um tempo. Nesta tese,
desenvolvemos e analisamos vários métodos de Nowcasting usando dados
de alta dimensão (big data) em diferentes contextos: desde a previsão
de séries econômicas até o nowcast de óbitos pela COVID-19. Em um
de nossos estudos, comparamos o desempenho de diferentes algoritmos de
Machine Learning com modelos mais naive na previsão de muitas variáveis
econômicas em tempo real e mostramos que, na maioria das vezes, o
Machine Learning supera os modelos de benchmark. Já no restante dos
nossos exercícios, combinamos várias técnicas de nowcasting com um grande
conjunto de dados (incluindo variáveis de alta frequência, como o Google
Trends) para rastrear a pandemia no Brasil, mostrando que fomos capazes
de antecipar os números reais de mortes e casos muito antes de estarem
disponíveis oficialmente para todos. / [en] Nowcasting in economics is the prediction of the present, the recent past or
even the prediction of the very near future of a certain indicator. Generally,
a nowcast model is useful when the value of a target variable is released
with a significant delay with respect to its reference period and/or when
its value gets notably revised over time and stabilizes only after a while.
In this thesis, we develop and analyze several Nowcasting methods using
high-dimensional (big) data in different contexts: from the forecasting of
economic series to the nowcast of COVID-19. In one of our studies, we
compare the performance of different Machine Learning algorithms with
more naive models in predicting many economic variables in real-time and
we show that, most of the time, Machine Learning beats benchmark models.
Then, in the rest of our exercises, we combine several nowcasting techniques
with a big dataset (including high-frequency variables, such as Google
Trends) in order to track the pandemic in Brazil, showing that we were
able to nowcast the true numbers of deaths and cases way before they got
available to everyone.
|
94 |
[en] MULTILAYER PERCEPTRON FOR CLASSIFYING POLYMERS FROM TENSILE TEST DATA / [pt] PERCEPTRON DE MÚLTIPLAS CAMADAS PARA A CLASSIFICAÇÃO DE POLÍMEROS A PARTIR DE DADOS DE ENSAIOS DE TRAÇÃOHENRIQUE MONTEIRO DE ABREU 03 September 2024 (has links)
[pt] O ensaio de tração é o ensaio mecânico mais aplicado para a obtenção
das propriedades mecânicas de polímeros. Por meio de um ensaio de tração
é obtida a curva tensão-deformação, e é a partir desta curva que são obtidas propriedades mecânicas tais como o módulo de elasticidade, a tenacidade
e a resiliência do material, as quais podem ser utilizadas na identificação de
comportamentos mecânicos equivalentes em materiais poliméricos, seja para
a diferenciação de resíduos plásticos para a reciclagem ou para a classificação
de um material plástico reciclado quanto ao teor de um determinado polímero
em sua composição. Porém, a obtenção das propriedades mecânicas a partir da curva tensão-deformação envolve cálculos e ajustes nos intervalos da
curva em que essas propriedades são determinadas, tornando a obtenção das
propriedades mecânicas um processo complexo sem a utilização de programas
computacionais especializados. A partir da compreensão do padrão de comportamento da curva tensão-deformação de um material, algoritmos de aprendizagem de máquina (AM) podem ser ferramentas eficientes para automatizar
a classificação de diferentes tipos de materiais poliméricos. Com o objetivo
de verificar a acurácia de um algoritmo de AM na classificação de três tipos
de polímeros, foram realizados ensaios de tração em corpos de prova de polietileno de alta densidade (PEAD), polipropileno (PP) e policloreto de vinila
(PVC). O conjunto de dados obtido a partir das curvas tensão-deformação foi
utilizado no treinamento de uma rede neural artificial perceptron de múltiplas
camadas (PMC). Com uma acurácia de 0,9261 para o conjunto de teste, o
modelo obtido a partir da rede PMC foi capaz de classificar os polímeros com
base nos dados da curva tensão-deformação, indicando a possibilidade do uso
de modelos de AM para automatizar a classificação de materiais poliméricos a
partir de dados de ensaios de tração. / [en] The tensile test is the most applied mechanical test to obtain the mechanical properties of polymers, which can be used in polymeric materials classification. Through a tensile test is obtained the stress-strain curve, is from which
mechanical properties such as the modulus of elasticity, tenacity, and resilience
of the material are obtained, which can be used to identify equivalent mechanical behaviors in polymeric materials, whether for the distinguishing plastic
waste for recycling or for classifying recycled plastic material according to the
content of a polymer type in its composition. However, obtaining mechanical
properties from the stress-strain curve involves calculations and adjustments in
the intervals of the curve in which these properties are determined, turning it
into a complex process without the use of specialized software. By understanding the behavior pattern of a material’s stress-strain curve, machine learning
(ML) algorithms can be efficient tools to automate the classification of different types of polymeric materials. To verify the accuracy of an ML algorithm
in classifying three types of polymers, tensile tests were performed on specimens made of high-density polyethylene (HDPE), polypropylene (PP), and
polyvinyl chloride (PVC). The dataset obtained from the stress-strain curves
was used in the training of a multilayer perceptron (MLP) neural network.
With an accuracy of 0.9261 for the test set, the model obtained from the MLP
neural network was able to classify the polymers based on the stress-strain
curve data, thus indicating the possibility of using an ML algorithm to automate the classification of polymeric materials based on tensile test data.
|
95 |
[pt] AVALIANDO O TEMPLATE DE METACOMUNICAÇÃO ESTENDIDO COMO UMA FERRAMENTA EPISTÊMICA PARA O DESIGN SOCIOTÉCNICO DE SISTEMAS DE APRENDIZAGEM DE MÁQUINA / [en] EVALUATING THE EXTENDED METACOMMUNICATION TEMPLATE AS AN EPISTEMIC TOOL FOR THE SOCIOTECHNICAL DESIGN OF MACHINE LEARNING SYSTEMSGABRIEL DINIZ JUNQUEIRA BARBOSA 01 December 2022 (has links)
[pt] Esta dissertação apresenta o Template de Metacomunicação Estendido,
uma ferramenta, denominada Template Estendido de Metacomunicação, baseada em um conjunto de perguntas-guia derivadas da teoria da Engenharia
Semiótica. Relatamos os resultados de um estudo para avaliar seus impactos
no processo de design de sistemas de aprendizagem de máquina. Ao solicitar que designers e desenvolvedores respondam um conjunto de perguntas, a
ferramenta busca auxiliá-los a organizar mentalmente suas interpretações da
solução de design, ao mesmo tempo que revisitam as pressuposições por trás
dela. Descrevemos, então, um estudo de design especulativo e analisamos seus
resultados, identificando temas emergentes que nos ajudam a entender como a
ferramenta proposta pode ser utilizada. Dentre os aspectos identificados mais
relevantes estão a prática reflexiva do design, a atenção ao uso de linguagem, a
atribuição de responsabilidade às pessoas envolvidas, o uso do arcabouço ético
de apoio fornecido, os princípios da bioética, e as possíveis formas de se usar
o template estendido. / [en] This dissertation presents the Extended Metacommunication Template,
a tool based on a set of guiding questions derived from the theory of Semiotic
Engineering. We report the results of a study we conducted to evaluate the
tool s impacts on the design process of machine learning systems. By having
designers and developers answer a set of questions, the tool aims to help
them reflect on their interpretations of the design solution, while allowing
them to revisit the presuppositions behind it. We then describe a speculative
design study and analyze its results, identifying emergent themes that help us
understand how the proposed tool may be used. Among the relevant themes
identified are: the reflective practice of design, the designer s focus on their use
of language, the process of attributing responsibility to the people involved,
the use of the ethical framework provided to them, the bioethical principles,
and the ways in which the extension of the template may be used.
|
96 |
[en] REAL TIME EMOTION RECOGNITION BASED ON IMAGES USING ASM AND SVM / [pt] RECONHECIMENTO DE EMOÇÕES ATRAVÉS DE IMAGENS EM TEMPO REAL COM O USO DE ASM E SVMGUILHERME CARVALHO CUNHA 09 July 2014 (has links)
[pt] As expressões faciais transmitem muita informação sobre um indivíduo, tornando a capacidade de interpretá-las uma tarefa muito importante, com aplicações em diversas áreas, tais como Interação Homem Máquina, Jogos Digitais, storytelling interativo e TV/Cinema digital. Esta dissertação discute o processo de reconhecimento de emoções em tempo real usando ASM (Active Shape Model) e SVM (Support Vector Machine) e apresenta uma comparação entre duas formas comumente utilizadas na etapa de extração de atributos: faces neutra e média. Como não existe tal comparação na literatura, os resultados apresentados são valiosos para o desenvolvimento de aplicações envolvendo expressões de emoção em tempo real. O presente trabalho considera seis tipos de emoções: felicidade, tristeza, raiva, medo, surpresa e desgosto. / [en] The facial expressions provide a high amount of information about a person, making the ability to interpret them a high valued task that can be used in several fields of Informatics such as Human Machine Interface, Digital Games, interactive storytelling and digital TV/Cinema. This dissertation discusses the process of recognizing emotions in real time using ASM (Active Shape Model) and SVM (Support Vector Machine) and
presents a comparison between two commonly used ways when extracting the attributes: neutral face and average. As such comparison can not be found in the literature, the results presented are valuable to the development of applications that deal with emotion expression in real time. The current study considers six types of emotions: happiness, sadness, anger, fear, surprise and disgust.
|
97 |
[en] A NEURAL NETWORK FOR ONLINE PORTFOLIO SELECTION WITH SIDE INFORMATION / [pt] UMA REDE NEURAL PARA O PROBLEMA DE SELEÇÃO ONLINE DE PORTFÓLIO COM INFORMAÇÃO LATERALGUILHERME AUGUSTO SCHUTZ 15 January 2019 (has links)
[pt] O mercado financeiro é essencial na economia, trazendo estabilidade, acesso a novos tipos de investimentos, e aumentando a capacidade das empresas no acesso ao crédito. A constante busca por reduzir o papel de especialistas humanos na tomada de decisão, visa reduzir o risco inerente as emoções intrínsecas do ser humano, do qual a máquina não compartilha. Como consequência, reduzindo efeitos especulativos no mercado, e aumentando a precisão nas decisões tomadas. Neste trabalho é discutido o problema de seleção de portfólios online, onde um vetor de alocações de ativos é requerido em cada passo. O algoritmo proposto é o multilayer perceptron with side information - MLPi. Este algoritmo utiliza redes neurais para a solução do problema quando o investidor tem acesso a informações futuras sobre o preço
dos ativos. Para avaliar o uso da informação lateral na seleção de portfolio, testamos empiricamente o MLPi em contraste com dois algoritmos, um baseline e o estado-da-arte. Como baseline é utilizado o buy-and-hold. O estado-da-arte é o algoritmo online moving average mean reversion proposto por Li e Hoi
(2012). Para avaliar a utilização de informação lateral no algoritmo MLPi é definido um benchmark baseado numa solução ótima simples utilizando a informação lateral, mas sem considerar a acurácia da informação futura. Para os experimentos, utilizamos informações a nível de minuto do mercado de ações brasileiro, operados na bolsa de valores B3. É simulado um preditor de preço com 7 níveis de acurácia diferentes para 200 portfólios. Os resultados apontam que tanto o benchmark quanto o MLPi superam os dois algoritmos selecionados, para níveis de acurácia de um ativo maiores que 50 por cento, e na média, o MLPi supera o benchmark em todos os níveis de acurácia simulados. / [en] The financial market is essential in the economy, bringing stability, access to new types of investments, and increasing the ability of companies to access credit. The constant search for reducing the role of human specialists in decision making aims to reduce the risk inherent in the intrinsic emotions of the human being, which the machine does not share. As a consequence, reducing speculative effects in the market, and increasing the precision in the decisions taken. In this paper, we discuss the problem of selecting portfolios online, where a vector of asset allocations is required in each step. The proposed algorithm is the multilayer perceptron with side information - MLPi. This algorithm uses neural networks to solve the problem when the investor has access to future information on the price of the assets. To evaluate the use of side information in portfolio selection, we empirically tested MLPi in contrast to two algorithms, a baseline and the state-of-the-art. As a baseline, buy-andhold is used. The state-of-the-art is the online moving average mean reversion algorithm proposed by Li and Hoi (2012). To evaluate the use of side information in the algorithm MLPi a benchmark based on a simple optimal solution using the side information is defined, but without considering the accuracy of the future information. For the experiments, we use minute-level information from the Brazilian stock market, traded on the B3 stock exchange. A price predictor is simulated with 7 different accuracy levels for 200 portfolios. The results show that both the benchmark and MLPi outperform the two algorithms selected, for asset accuracy levels greater than 50 percent, and on average, MLPi outperforms the benchmark at all levels of simulated accuracy.
|
98 |
[en] QUOTATION EXTRACTION FOR PORTUGUESE / [pt] EXTRAÇÃO DE CITAÇÕES PARA O PORTUGUÊSWILLIAM PAULO DUCCA FERNANDES 24 January 2017 (has links)
[pt] A Extração de Citações consiste na identificação de citações de um texto e na associação destas com seus autores. Neste trabalho, apresentamos um sistema de Extração de Citações para Português. A tarefa de Extração de Citações já foi abordada usando diversas técnicas e para diversas línguas.Nossa proposta é diferente dos trabalhos anteriores, pois usamos Aprendizado de Máquina para construir automaticamente regras especializadas ao invés de regras criadas por humanos. Modelos de Aprendizado de Máquina geralmente apresentam forte capacidade de generalização comparados a modelos feitos por humanos. Além disso, nós podemos facilmente adaptar nosso modelo para outras línguas, precisando apenas de uma lista de verbos de citação para uma dada língua. Os sistemas propostos anteriormente provavelmente precisariam de uma adaptação no conjunto de regras de forma a classificar corretamente as citações, o que consumiria tempo. Nós atacamos a tarefa de Extração de Citações usando um modelo para o algoritmo de Aprendizado de Transformações Guiado por Entropia e um modelo para o algoritmo do Perceptron Estruturado. Com o objetivo de treinar e avaliar o sistema, nós construímos o corpus GloboQuotes com notícias extraídas do portal globo.com. Adicionamos etiquetas morfossintáticas ao corpus, utilizando um anotador estado da arte. O Perceptron Estruturado baseado no agendamento de tarefas ponderado tem desempenho F sub Beta igual a 1 igual a 76,80 por cento. / [en] Quotation Extraction consists of identifying quotations from a text and associating them to their authors. In this work, we present a Quotation Extraction system for Portuguese. Quotation Extraction has been previously approached using different techniques and for several languages. Our proposal differs from previous work since we use Machine Learning to automatically build specialized rules instead of human-derived rules. Machine Learning models usually present stronger generalization power compared to human-derived models. In addition, we are able to easily adapt our model to other languages, needing only a list of verbs of speech for a given language. The previously proposed systems would probably need a rule set adaptation to correctly classify the quotations, which would be time consuming. We tackle the Quotation Extraction task using one model for the Entropy Guided Transformation Learning algorithm and another one for the Structured Perceptron algorithm. In order to train and evaluate the system, we have build the GloboQuotes corpus, with news extracted from the globo.com portal. We add part-of-speech tags to the corpus using a state-of-the-art tagger. The Structured Perceptron based on weighted interval scheduling obtains an F sub Beta equal 1 score of 76.80 per cent.
|
99 |
[en] A SYSTEM FOR STOCK MARKET FORECASTING AND SIMULATION / [pt] UM SISTEMA PARA PREDIÇÃO E SIMULAÇÃO DO MERCADO DE CAPITAISPAULO DE TARSO GOMIDE CASTRO SILVA 02 February 2017 (has links)
[pt] Nos últimos anos, vem crescendo o interesse acerca da predição do comportamento do mercado de capitais, tanto por parte dos investidores quanto dos pesquisadores. Apesar do grande número de publicações tratando esse problema, predizer com eficiência futuras tendências e desenvolver estratégias de negociação capazes de traduzir boas predições em lucros são ainda grandes desafios. A dificuldade em realizar tais tarefas se deve tanto à não linearidade e grande volume de ruídos presentes nos dados do mercado, quanto à falta de sistemas que possam avaliar com propriedade a qualidade das predições realizadas. Nesse trabalho, são realizadas predições de séries temporais visando auxiliar o investidor tanto em operações de compra e venda, como em Pairs Trading. Além disso, as predições são feitas considerando duas diferentes periodicidades. Uma predição interday, que considera apenas dados diários e tem como objetivo a predição de valores referentes ao presente dia. E uma predição intraday, que visa predizer valores referentes a cada hora de negociação do dia atual e para isso considera também os dados intraday conhecidos até o momento que se deseja prever. Para ambas as tarefas propostas, foram testadas três ferramentas de predição, quais sejam, Regressão por Mínimos Quadrados Parciais, Regressão por Vetores de Suporte e Redes Neurais Artificiais. Com o intuito de melhor avaliar a qualidade das predições realizadas, é proposto ainda um trading system. Os testes foram realizados considerando ativos das companhias mais negociadas da BM e FBOVESPA, a bolsa de valores oficial do Brasil e terceira maior do mundo. Os resultados dos três preditores são apresentados e comparados a quatro benchmarks, bem como com a solução ótima. A diferença na qualidade de predição, considerando o erro de predição ou as métricas do trading system, são notáveis. Se quando analisado apenas o Erro Percentual Absoluto Médio os preditores propostos não mostram uma melhora significativa, quando as métricas do trading system são consideradas eles apresentam um resultado bem superior. O retorno anual do investimento em alguns casos atinge valor superior a 300 por cento. / [en] The interest of both investors and researchers in stock market behavior forecasting has increased throughout the recent years. Despite the wide number of publications examining this problem, accurately predicting future stock trends and developing business strategies capable of turning good predictions into profits are
still great challenges. This is partly due to the nonlinearity and noise inherent to the stock market data source, and partly because benchmarking systems to assess the forecasting quality are not publicly available. Here, we perform time series forecasting aiming to guide the investor both into Pairs Trading and buy and sell
operations. Furthermore, we explore two different forecasting periodicities. First, an interday forecast, which considers only daily data and whose goal is predict values referring to the current day. And second, the intraday approach, which aims to predict values referring to each trading hour of the current day and also
takes advantage of the intraday data already known at prediction time. In both forecasting schemes, we use three regression tools as predictor algorithms, which are: Partial Least Squares Regression, Support Vector Regression and Artificial Neural Networks. We also propose a trading system as a better way to assess
the forecasting quality. In the experiments, we examine assets of the most traded companies in the BM and FBOVESPA Stock Exchange, the world s third largest and official Brazilian Stock Exchange. The results for the three predictors are presented and compared to four benchmarks, as well as to the optimal solution.
The difference in the forecasting quality, when considering either the forecasting error metrics or the trading system metrics, is remarkable. If we consider just the mean absolute percentage error, the proposed predictors do not show a significant superiority. Nevertheless, when considering the trading system evaluation, it shows really outstanding results. The yield in some cases amounts to an annual return on investment of more than 300 per cent.
|
100 |
[en] NAMED ENTITY RECOGNITION FOR PORTUGUESE / [pt] RECONHECIMENTO DE ENTIDADES MENCIONADAS PARA O PORTUGUÊSDANIEL SPECHT SILVA MENEZES 13 December 2018 (has links)
[pt] A produção e acesso a quantidades imensas dados é um elemento pervasivo da era da informação. O volume de informação disponível é sem precedentes na história da humanidade e está sobre constante processo de expansão. Uma oportunidade que emerge neste ambiente é o desenvolvimento de aplicações que sejam capazes de estruturar conhecimento contido nesses dados. Neste contexto se encaixa a área de Processamento de Linguagem Natural (PLN) - Natural Language Processing (NLP) - , ser capaz de extrair informações estruturadas de maneira eficiente de fontes textuais. Um passo fundamental para esse fim é a tarefa de Reconhecimento de Entidades Mencionadas (ou nomeadas) - Named Entity Recognition (NER) - que consistem em delimitar e categorizar menções a entidades num texto. A construção de sistemas para NLP deve ser acompanhada de datasets que expressem o entendimento humano sobre as estruturas gramaticais de interesse, para que seja possível realizar a comparação dos resultados com o real
discernimento humano. Esses datasets são recursos escassos, que requerem esforço humano para sua produção. Atualmente, a tarefa de NER vem sendo abordada com sucesso por meio de redes neurais artificiais, que requerem conjuntos de dados anotados tanto para avaliação quanto para treino. A proposta deste trabalho é desenvolver um dataset de grandes dimensões para a tarefa de NER em português de maneira automatizada, minimizando a necessidade de intervenção humana. Utilizamos recursos públicos como fonte de dados, nominalmente o DBpedia e Wikipédia. Desenvolvemos uma metodologia para a construção do corpus e realizamos experimentos sobre o mesmo utilizando arquiteturas de redes neurais de melhores performances reportadas atualmente. Exploramos diversas modelos de redes neurais, explorando diversos valores de hiperparâmetros e propondo arquiteturas com o foco específico de incorporar fontes de dados diferentes para treino. / [en] The production and access of huge amounts of data is a pervasive element of the Information Age. The volume of availiable data is without precedents in human history and it s in constant expansion. An oportunity that emerges in this context is the development and usage of applicationos that are capable structuring the knowledge of data. In this context fits the Natural Language Processing, being able to extract information efficiently from textual data. A fundamental step for this goal is the task of Named Entity Recognition (NER) which delimits and categorizes the mentions to entities. The development o systems for NLP tasks must be accompanied by datasets produced by humans in order to compare the system with the human discerniment for the NLP task at hand. These datasets are a scarse resource which the construction is costly in terms of human supervision. Recentlly, the NER task has been approached using artificial network models which needs datsets for both training and evaluation. In this work we propose the construction of a datasets for portuguese NER with an automatic approach using public data sources structured according to the principles of SemanticWeb, namely, DBpedia and Wikipédia. A metodology for the construction of this dataset was developed and experiments were performed using both the built dataset and the neural network architectures with the best reported results. Many setups for the experiments were evaluated, we obtained preliminary results for diverse hiperparameters
values, also proposing architectures with the specific focus of incorporating diverse data sources for training.
|
Page generated in 0.1064 seconds