Spelling suggestions: "subject:"aprendizado dde maquina"" "subject:"aprendizado dde yaquina""
41 |
[en] PREDICTION OF PLASTIC STRAIN ACCUMULATION AT GRAIN BOUNDARIES OF POLYCRYSTALLINE METALS BASED ON MACHINE LEARNING / [pt] PREVISÃO DO ACÚMULO DE DEFORMAÇÕES PLÁSTICAS EM CONTORNOS DE GRÃOS DE METAIS POLICRISTALINOS BASEADO EM APRENDIZADO DE MÁQUINALARA CRISTINA PEREIRA DE ARAUJO 30 November 2023 (has links)
[pt] Métodos de aprendizado de máquina vêm sendo bastante utilizados na área
de mecânica dos sólidos devido ao grande volume de dados disponíveis na literatura. A motivação deste trabalho foi o estudo do acúmulo de deformação plástica na
escala de grãos, pois o uso do aprendizado de máquina pode ser uma significativa
contribuição para criar modelos capazes de prever o acúmulo de deformações. O
objetivo deste trabalho foi aprimorar a previsão do acúmulo de deformação plástica
propondo um novo método de previsão de acúmulo de deformações plásticas em
contornos de grãos de um material policristalino, usando modelos de aprendizado
de máquina. Este trabalho utilizou-se de dados experimentais da literatura para estruturar três bancos de dados, os que consideraram somente os contornos de grãos.
Nas previsões foram utilizados os seguintes métodos: Decision Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient Boosting Regressor e Análise de Componentes Principais (PCA). Na avaliação dos modelos
foram empregados os métodos de validação cruzada e reamostragem de Monte
Carlo. As métricas de erro aplicadas foram o coeficiente de determinação (R2) e o
coeficiente de correlação de Pearson (R). Os resultados apontaram que as previsões
foram coerentes e de boa qualidade, melhorando os valores médios do coeficiente
de Pearson em aproximadamente 30 por cento comparados aos valores da literatura. Para o
R(2) a média de valores alcançada foi de 0.85. Conclui-se que o uso do método de
aprendizado de máquina se mostra confiável na previsão do acúmulo de deformação
plástica no contorno do grão de um material policristalino. / [en] Machine learning methods have been widely used in the area of solid mechanics due to the large volume of data available in the literature. The motivation
for this work was the study of the accumulation of plastic strain at the grain scale.
Because the use of machine learning can be a significant contribution to creating
models capable of predicting the accumulation of deformation. The objective of this
work was to improve the prediction of plastic strain accumulation by proposing a
new method for predicting the accumulation of plastic strains in grain boundaries
of a polycrystalline material, using machine learning models. This work uses experimental data from the literature to structure three databases, which only consider
grain boundaries. The following methods were used in the predictions: Decision
Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient
Boosting Regressor, and Principal Component Analysis (PCA). Monte Carlo crossvalidation and resampling methods were used to evaluate the models. The error
metrics applied were the coefficient of determination (R2) and the Pearson correlation coefficient (R). The results indicate that the predictions were coherent and of
good quality, improving the average Pearson coefficient values by approximately
30 percent compared to literature values. For R(2), the average value achieved was 0.85. It
is concluded that the use of the machine learning method proves to be reliable in
predicting the accumulation of plastic strain at the grain boundary of a polycrystalline material.
|
42 |
[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIASPEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de
identificação de uma estrutura em um texto em formato de linguagem natural. Em
geral, estruturas são compostas por entidades e relacionamentos entre elas. As
propostas de solução com maior sucesso aplicam aprendizado de máquina
supervisionado a corpus anotados à mão para a criação de classificadores de alta
precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis
por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um
paradigma alternativo para a criação de um número considerável de exemplos de
instâncias para classificação. Tal método é chamado de supervisão à distância. Em
conjunto com essa alternativa, usamos ontologias da Web semântica para propor e
usar novas características para treinar classificadores. Elas são baseadas na
estrutura e semântica descrita por ontologias onde recursos da Web semântica são
definidos. O uso de tais características tiveram grande impacto na precisão e recall
dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um
corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um
número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure
from natural language text format. In general, structures are composed by entities
and relationships among them. The most successful approaches on relation
extraction apply supervised machine learning on hand-labeled corpus for creating
highly accurate classifiers. Although good robustness is achieved, hand-labeled
corpus are not scalable due to the expensive cost of its creation. In this work we
apply an alternative paradigm for creating a considerable number of examples of
instances for classification. Such method is called distant supervision. Along with
this alternative approach we adopt Semantic Web ontologies to propose and use
new features for training classifiers. Those features are based on the structure and
semantics described by ontologies where Semantic Web resources are defined.
The use of such features has a great impact on the precision and recall of our final
classifiers. In this work, we apply our theory on corpus extracted from Wikipedia.
We achieve a high precision and recall for a considerable number of relations.
|
43 |
[en] WEIGHTED INTERVAL SCHEDULING RESOLUTION FOR BUILDING FINANCIAL MARKET TRADING STRATEGIES / [pt] ESTRATÉGIAS DE NEGOCIAÇÃO DE ATIVOS FINANCEIROS UTILIZANDO AGENDAMENTO POR INTERVALOS PONDERADOSLEANDRO GUIMARAES MARQUES ALVIM 03 September 2013 (has links)
[pt] Há diferentes tipos de investidores que compõem o mercado financeiro e
produzem oportunidades de mercado em diferentes escalas de tempo. Isto
evidencia uma estrutura heterogênea de mercado. Nesta tese conjecturamos
que podem haver oportunidades mais preditivas do que outras, o que
motiva a investigação e a construção de estratégias multirresolução. Para
estratégias multirresolução há abordagens que utilizam a decomposição
de séries temporais para a operação em resoluções distintas ou propostas
para a construção de conjuntos de dados de acordo com decisões de
negociação multirresolução. As demais estratégias, em sua maioria, são
de resolução única. Nesta tese, abordamos dois problemas, maximização
de retorno acumulado e maximização de retorno acumulado com o risco
controlado, e propomos uma abordagem computacionalmente eficiente para
a construção de estratégias multirresolução, a partir da resolução do
problema de Agendamento de Intervalos Ponderados. Nossa metodologia
consiste em dividir o dia de mercado em intervalos, especializar traders
por intervalo e associar um prêmio a cada trader. Para o problema de
maximização de retorno acumulado, o prêmio de cada trader corresponde ao
retorno acumulado entre dias para o intervalo de operação associado. Para
o problema de maximização de retorno acumulado com controle do risco,
o prêmio de cada trader corresponde ao retorno acumulado dividido pelo
risco para o intervalo de operação associado. Diferentemente do problema
anterior, empregamos um conjunto de traders por intervalo e utilizamos o
método de Média-Variância, de Markowitz, para encontrar pesos ótimos
para conjunto de traders de forma a controlar o risco. Conjecturamos
aqui que o controle do risco por intervalo acarreta no controle do risco
global da estratégia para o dia. Para a sinalização das ordens de compra e
venda, nossos traders utilizam detectores de oportunidades. Estes detectores
utilizam algoritmos de Aprendizado de Máquina que processam informações
de indicadores de análise técnica e dados de preço e volume. Realizamos
experimentos para dez ativos de maior liquidez da BMF&Bovespa para um
período de um ano. Nossa estratégia de Composição de um Time de Traders
(CTT) apresenta 0, 24 por cento de lucro médio diário e 77, 24 por cento de lucro anual, superando em 300 por cento e 380 por cento, respectivamente, uma estratégia de resolução
única. Para os custos adotados, a estratégia CTT é viável a partir de
50.000,00 dólares. Para o problema de maximização do retorno acumulado com
risco controlado, a estratégia de Composição de Carteiras por Intervalos
(CCI) apresenta em média 0, 179 por cento de lucro diário e 55, 85 por cento de lucro
anual, superando o método de Média-Variância de Markowitz. Para os
custos adotados, a estratégia CCI é viável a partir de 2.000.000,00 dólares.
As principais contribuições desta tese são: abordagem por Agendamentos
de Intervalos Ponderados para a construção de estratégias e o emprego do
modelo de Média-Variância para compor uma carteira de traders ao invés
da tradicional abordagem por ativos. / [en] There are different types of investors who make up the financial
market and produce market opportunities at different time scales.
This indicates a heterogeneous market structure. In this thesis, we
conjecture that may have more predictive opportunities than others, what
motivates research and construction of we denominate multirresolution
optimal strategies. For multirresolution strategies there are time series
decomposition approaches for operating at different resolutions or proposals
for dataset construction according to multirresolution trading optimal
decisions. The other approaches, are single resolution. Thus, we address
two problems, maximizing cumulative returns and maximizing cumulative
returns with risk control. Here, we propose solving the Weighted Interval
Scheduling problem to build multirresolution strategies. Our methodology
consists of dividing the market day into time intervals, specialize traders
by interval and associate a prize to each trader. For the cumulative return
maximization problem, the prize corresponds to cumulative returns between
days for the associated trader operation interval. For the cumulative return
maximization problem with risk control each trader prize corresponds to
cumulative return divided by risk with associated operation interval. In
order to control the risk, we employ a set of traders by interval and apply
the Markowitz Mean-Variance method to find optimal weight for set of
traders. Here, we conjecture that controlling each interval risk leads to the
overall risk control of the day. For signaling buy and sell orders, our traders
use opportunity detectors. These detectors correspond to Machine Learning
algorithms that process technical analysis indicators, price and volume
data. We conducted experiments for ten of the most liquid BMF&Bovespa
stocks to a one year span. Our Trading Team Composition strategy results
indicates an average of 0.24 per cent daily profit and a 77.24 per cent anual profit,
exceeding by 300 per cent and 380 per cent, respectively, a single resolution strategy.
Regarding operational costs, CTT strategy is viable from 50,000 dollars.
For the cumulative return maximization problem under risk control, our
Portfolio Composition by Intervals strategy results indicates an average of
0.179 per cent daily profit and a 55.85 per cent anual profit, exceeding a Markowitz Mean-
Variance method.
Regarding operational costs, CCI strategy is viable from 2,000,000 dollars.
Our main contributions are: the Weighted Interval Scheduling approach for
building multirresolution strategies and a portfolio composition of traders
instead of stocks performances.
|
44 |
[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINASUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são
porções de
material didático tais como textos que podem ser
reutilizados na composição de
outros objetos maiores (aulas ou cursos). Um dos problemas
da reutilização de
LOs é descobri-los em seus contextos ou documentos texto
originais tais como
livros, e artigos. Visando a obtenção de LOs, este
trabalho apresenta um
processo que parte da extração, tratamento e carga de uma
base de dados
textual e em seguida, baseando-se em técnicas de
aprendizado de máquina,
uma combinação de EM (Expectation-Maximization) e um
classificador
Bayesiano, classifica-se os textos extraídos. Tal processo
foi implementado em
um sistema chamado SQLLOMining, que usa SQL como linguagem
de
programação e técnicas de mineração de texto na busca de
LOs. / [en] Learning Objects (LOs) are pieces of instructional
material like traditional
texts that can be reused in the composition of more
complex objects like classes
or courses. There are some difficulties in the process of
LO reutilization. One of
them is to find pieces of documents that can be used like
LOs. In this work we
present a process that, in search for LOs, starts by
extracting, transforming and
loading a text database and then continue clustering these
texts, using a machine
learning methods that combines EM (Expectation-
Maximization) and a Bayesian
classifier. We implemented that process in a system called
SQLLOMining that
uses the SQL language and text mining methods in the
search for LOs.
|
45 |
[en] A STUDY OF MULTILABEL TEXT CLASSIFICATION ALGORITHMS USING NAIVE-BAYES / [pt] UM ESTUDO DE ALGORITMOS PARA CLASSIFICAÇÃO AUTOMÁTICA DE TEXTOS UTILIZANDO NAIVE-BAYESDAVID STEINBRUCH 12 March 2007 (has links)
[pt] A quantidade de informação eletrônica vem crescendo de
forma acelerada,
motivada principalmente pela facilidade de publicação e
divulgação que a
Internet proporciona. Desta forma, é necessária a
organização da informação
de forma a facilitar a sua aquisição. Muitos trabalhos
propuseram resolver
este problema através da classificação automática de
textos associando a
eles vários rótulos (classificação multirótulo). No
entanto, estes trabalhos
transformam este problema em subproblemas de classificação
binária,
considerando que existe independência entre as categorias.
Além disso,
utilizam limiares (thresholds), que são muito específicos
para o conjunto
de treinamento utilizado, não possuindo grande capacidade
de generalização
na aprendizagem. Esta dissertação propõe dois algoritmos
de classificação
automática de textos baseados no algoritmo multinomial
naive Bayes e sua
utilização em um ambiente on-line de classificação
automática de textos
com realimentação de relevância pelo usuário. Para testar
a eficiência dos
algoritmos propostos, foram realizados experimentos na
base de notícias
Reuters 21758 e na base de documentos médicos Ohsumed. / [en] The amount of electronic information has been growing
fast, mainly due to
the easiness of publication and spreading that Internet
provides. Therefore,
is necessary the organisation of information to facilitate
its retrieval. Many
works have solved this problem through the automatic text
classification,
associating to them several labels (multilabel
classification). However, those
works have transformed this problem into binary
classification subproblems,
considering there is not dependence among categories.
Moreover, they have
used thresholds, which are very sepecific of the
classifier document base,
and so, does not have great generalization capacity in the
learning process.
This thesis proposes two text classifiers based on the
multinomial algorithm
naive Bayes and its usage in an on-line text
classification environment with
user relevance feedback. In order to test the proposed
algorithms efficiency,
experiments have been performed on the Reuters 21578 news
base, and on
the Ohsumed medical document base.
|
46 |
Uso de Seleção de Características da Wikipedia na Classificação Automática de Textos. / Selection of Wikipedia features for automatic text classificationAlvarenga, Leonel Diógenes Carvalhaes 20 September 2012 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2014-07-31T14:43:10Z
No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) / Made available in DSpace on 2014-07-31T14:43:10Z (GMT). No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5)
Previous issue date: 2012-09-20 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The traditional methods of text classification typically represent documents only as a
set of words, also known as "Bag of Words"(BOW). Several studies have shown good
results on making use of thesauri and encyclopedias as external information sources,
aiming to expand the BOW representation by the identification of synonymy and
hyponymy relationships between present terms in a document collection. However,
the expansion process may introduce terms that lead to an erroneous classification. In
this paper, we propose the use of feature selection measures in order to select features
extracted from Wikipedia in order to improve the efectiveness of the expansion
process. The study also proposes a feature selection measure called Tendency Factor
to One Category (TF1C), so that the experiments showed that this measure proves
to be competitive with the other measures Information Gain, Gain Ratio and Chisquared,
in the process, delivering the best gains in microF1 and macroF1, in most
experiments. The full use of features selected in this process showed to be more stable
in assisting the classification, while it showed lower performance on restricting its
insertion only to documents of the classes in which these features are well punctuated
by the selection measures. When applied in the Reuters-21578, Ohsumed first -
20000 and 20Newsgroups collections, our approach to feature selection allowed the
reduction of noise insertion inherent in the expansion process, and improved the
results of use hyponyms, and demonstrated that the synonym relationship from
Wikipedia can also be used in the document expansion, increasing the efectiveness
of the automatic text classification. / Os métodos tradicionais de classificação de textos normalmente representam documentos
apenas como um conjunto de palavras, também conhecido como BOW (do inglês, Bag of Words). Vários estudos têm mostrado bons resultados ao utilizar-se de tesauros e enciclopédias como fontes externas de informações, objetivando expandir a representação BOW a partir da identificação de relacionamentos de sinonômia e hiponômia entre os termos presentes em uma coleção de documentos. Todavia, o processo
de expansão pode introduzir termos que conduzam a uma classificação errônea do documento. No presente trabalho, propõe-se a aplicação de medidas de avaliação de termos para a seleção de características extraídas da Wikipédia, com o objetivo de melhorar a eficácia de sua utilização durante o processo de expansão de documentos. O estudo também propõe uma medida de seleção de características denominada
Fator de Tendência a uma Categoria (FT1C), de modo que os experimentos realizados demonstraram que esta medida apresenta desempenho competitivo com as medidas Information Gain, Gain Ratio e Chi-squared, neste processo, apresentando os melhores ganhos de microF1 e macroF1, na maioria dos experimentos realizados. O uso integral das características selecionadas neste processo, demonstrou auxiliar a classificação de forma mais estável, ao passo que apresentou menor desempenho ao
se restringir sua inserção somente aos documentos das classes em que estas características são bem pontuadas pelas medidas de seleção. Ao ser aplicada nas coleções Reuters-21578, Ohsumed rst-20000 e 20Newsgroups, a abordagem com seleção de características permitiu a redução da inserção de ruídos inerentes do processo de expansão e potencializou o uso de hipônimos, assim como demonstrou que as relações de sinonômia da Wikipédia também podem ser utilizadas na expansão de documentos, elevando a eficácia da classificação automática de textos.
|
47 |
[en] MACHINE LEARNING FOR SENTIMENT CLASSIFICATION / [pt] APRENDIZADO DE MÁQUINA PARA O PROBLEMA DE SENTIMENT CLASSIFICATIONPEDRO OGURI 18 May 2007 (has links)
[pt] Sentiment Analysis é um problema de categorização de texto
no qual deseja-se identificar opiniões favoráveis e
desfavoráveis com relação a um tópico.
Um exemplo destes tópicos de interesse são organizações e
seus produtos. Neste problema, documentos são
classificados pelo sentimento, conotação,
atitudes e opiniões ao invés de se restringir aos fatos
descritos neste. O principal desafio em Sentiment
Classification é identificar como sentimentos são
expressados em textos e se tais sentimentos indicam uma
opinião positiva (favorável) ou negativa (desfavorável)
com relação a um tópico. Devido ao crescente volume de
dados disponível na Web, onde todos tendem
a ser geradores de conteúdo e expressarem opiniões sobre
os mais variados assuntos, técnicas de Aprendizado de
Máquina vem se tornando cada vez mais atraentes.
Nesta dissertação investigamos métodos de Aprendizado de
Máquina para Sentiment Analysis. Apresentamos alguns
modelos de representação de documentos como saco de
palavras e N-grama. Testamos os classificadores
SVM (Máquina de Vetores Suporte) e Naive Bayes com
diferentes modelos de representação textual e comparamos
seus desempenhos. / [en] Sentiment Analysis is a text categorization problem in
which we want to
identify favorable and unfavorable opinions towards a
given topic. Examples
of such topics are organizations and its products. In this
problem, docu-
ments are classifed according to their sentiment,
connotation, attitudes and
opinions instead of being limited to the facts described
in it.
The main challenge in Sentiment Classification is
identifying how sentiments
are expressed in texts and whether they indicate a
positive (favorable) or
negative (unfavorable) opinion towards a topic. Due to the
growing volume
of information available online in an environment where we
all tend to be
content generators and express opinions on a variety of
subjects, Machine
Learning techniques have become more and more attractive.
In this dissertation, we investigate Machine Learning
methods applied to
Sentiment Analysis. We present document representation
models such as
bag-of-words and N-grams.We compare the performance of the
Naive Bayes
and the Support Vector Machine classifiers for each
proposed model
|
48 |
[en] ENVIRONMENT CHANGES DETECTION: A PROACTIVE SYSTEM TO MONITOR MOVING OBJECTS / [pt] DETECÇÃO DE MUDANÇAS NO AMBIENTE: UM SISTEMA PROATIVO PARA MONITORAR OBJETOS MÓVEISFABIO DA COSTA ALBUQUERQUE 13 February 2017 (has links)
[pt] Sistemas de posicionamento, combinados com tecnologias de comunicação de baixo custo, abrem possibilidades interessantes para implementar aplicações em tempo real que monitoram objetos móveis e que apoiam sistemas de tomada de decisão. Inicialmente, esta dissertação discute requisitos básicos para aplicações proativas de monitoramento em tempo real. Em seguida, propõe uma arquitetura para aplicações proativas que monitoram objetos móveis, explorando a semântica da trajetória e a dinâmica do ambiente. Por fim, fornece um exemplo sobre como uma aplicação que monitora uma frota de caminhões pode se tornar proativa, utilizando notícias sobre condições da malha viária, a partir da publicação de dados em texto não estruturado através da Internet. A dissertação descreve como estruturar e georreferenciar as notícias, utilizando serviços de geocodificação. / [en] Positioning systems, combined with inexpensive communication technologies, open interesting possibilities to implement real-time applications that monitor moving objects and that support decision making. This dissertation first discusses basic requirements for proactive real-time monitoring applications. Then, it proposes an architecture to deploy applications that monitor moving objects, are pro-active, explore trajectory semantics and are sensitive to environment dynamics. Lastly, this dissertation provides an example of how an application that monitors a fleet of trucks can become proactive, using unstructured text information available on Internet focused on road conditions change. The dissertation describes how to structure and geo-reference the text, using available geocoding services.
|
49 |
[en] PREDICTING TRENDS IN THE STOCK MARKET / [pt] PREDIZENDO TENDÊNCIAS NA BOLSA DE VALORESJOAO PAULO FORNY DE MELO 02 August 2018 (has links)
[pt] Investidores estão sempre à procura de uma vantagem. Porém, tradicionais teorias financeiras nos dizem que tentar predizer tendências na bolsa de valores é um esforço em vão, uma vez que seguem um passeio aleatório, i.e., um processo estocástico ou randômico. Além disso, afirma-se que o mercado é eficiente de maneira que sempre incorpora e reflete toda informação relevante, o que torna impossível bater o mercado. Recentemente, com o crescimento da web e aumento da disponibilidade de dados em conjunto
com a evolução dos algoritmos de Aprendizado de Máquina, diversos trabalhos tem aplicado técnicas de Processamento de Linguagem Natural em notícias financeiras e dados de redes sociais para prever variações do preço de ações. Consequentemente, estão surgindo fortes evidências que o mercado pode, em algum grau, ser previsto. Este trabalho descreve o desenvolvimento de uma aplicação baseada em Aprendizado de Máquina para realizar a predição de tendências no mercado de ações, i.e., variações negativas, positivas ou neutras de preços com granularidade de minuto. Avaliamos o sistema usando dados de cotação de ações da B3 (Brasil Bolsa Balcão), antiga BM&FBOVESPA, e um dataset de tópicos mais relevantes buscados no Google Search e seus artigos relacionados, que são disponibilizados pela
plataforma Google Trends e coletados, minuto a minuto, de 15/08/2016 até 10/07/2017. Os experimentos mostram que esses dados provêem informação relevante para a tarefa em questão, onde conseguimos uma acurácia de 69.24 porcento para a predição de tendências do ativo PETR4, criando alguma / [en] Investors are always looking for an edge. However, traditional economic theories tell us that trying to predict short-term stock price movements is wasted effort, since it approximate a random walk, i.e., a stochastic or random process. Besides, these theories state that the market is efficient enough to always incorporate and reflect all relevant information, making it impossible to beat the market. In recent years, with the growth of the web and data availability in conjunction with advances in Machine Learning, a number of works are using Natural Language Processing to predict share price variations based on financial news and social networks data. Therefore, strong evidences are surfacing that the market can, in some level, be predicted. This work describes the development of an application based on Machine Learning to predict trends in the stock market, i.e., positive, negative or neutral price variations with minute granularity. We evaluate our system using B3 (Brasil Bolsa Balcão), formerly BM&FBOVESPA, stock quotes data, and a dataset with the most relevant topics of Google Search and its related articles, provided by the Google Trends platform and collected, minute by minute, from 08/15/2016 to 07/10/2017. The
experiments show that this data provides useful information to the task at hand, in which we achieve 69.24 per cent accuracy predicting trends for the PETR4 stock, creating some leverage to make profits possible with intraday trading.
|
50 |
[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTESJOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar
simuladores e
sistemas inteligentes que tomam decisões
automaticamente.
A primeira
contribuição dessa tese é o MAS-School, um método para
modelar e implementar
agentes de software inteligentes desde as primeiras
fases
de desenvolvimento.
Esse método também apresenta várias orientações de como
incluir aprendizado na
fase de design e implementação. O método apresenta no
final uma estratégia
incremental de desenvolvimento para permitir a avaliação
do desempenho das
técnicas de machine learning. A segunda contribuição
dessa
tese é o framework
ASYNC. O ASYNC é composto por um conjunto de ferramentas
de engenharia
de software para auxiliar a construção de sistemas
baseados em agentes
assíncronos, cooperativos e inteligentes. Esta tese
apresenta quatro estudos de
casos complexos desenvolvidos com agentes inteligentes
para exemplificar o uso
do método e framework. A primeira aplicação apresenta um
sistema baseado em
agentes para criar promoções em um mercado varejista
utilizando o conceito de
agregação de produtos. A segunda aplicação apresenta um
mercado virtual para
compra e venda de bens. A terceira aplicação é um
sistema
multi-agente
distribuído para um complexo cenário de procurement em
leilões simultâneos e
interdependentes. Essa aplicação participou do Trading
Agent Competition em
2004 e obteve a terceira colocação. A quarta aplicação é
um sistema multi-agente
para um Supply Chain Management. / [en] The agent technology is used to develop systems that
perform several
complex tasks. This thesis presents the MAS-School method
for modeling and
implementing intelligent agent-based systems. The method
presents a systematic
approach to support a disciplined introduction of machine
learning techniques in
multi-agent systems from an early stage of design. The
proposed approach
encompasses guidelines to both the design and
implementation phases of an
agent-based system. It is based on an incremental
development strategy that
largely relies on simulation and testing techniques. This
thesis also presents the
ASYNC framework that is composed of software engineering
tools for building
agent based system for asynchronous, cooperative and
intelligent agents. This
thesis presents four complex applications that used the
proposed method and
framework in the design and implementation phase. The
first case study presents
an application that discovers the most appealing offerings
for consumers in a retail
market. The second case study presents a virtual
marketplace for buying and
selling goods with automatic negotiation. The third case
study is a multi-agent
system for a complex procurement scenario with
interdependent and simultaneous
auctions. This system achieved the third place in the 2004
TAC Classic
competition. The fourth case study is a multi-agent system
for a PC manufacturer
scenario based on sourcing of components, manufacturing of
PC's and sales to
customers.
|
Page generated in 0.0888 seconds