• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 53
  • Tagged with
  • 106
  • 106
  • 105
  • 105
  • 102
  • 18
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • 12
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

[en] PREDICTION OF PLASTIC STRAIN ACCUMULATION AT GRAIN BOUNDARIES OF POLYCRYSTALLINE METALS BASED ON MACHINE LEARNING / [pt] PREVISÃO DO ACÚMULO DE DEFORMAÇÕES PLÁSTICAS EM CONTORNOS DE GRÃOS DE METAIS POLICRISTALINOS BASEADO EM APRENDIZADO DE MÁQUINA

LARA CRISTINA PEREIRA DE ARAUJO 30 November 2023 (has links)
[pt] Métodos de aprendizado de máquina vêm sendo bastante utilizados na área de mecânica dos sólidos devido ao grande volume de dados disponíveis na literatura. A motivação deste trabalho foi o estudo do acúmulo de deformação plástica na escala de grãos, pois o uso do aprendizado de máquina pode ser uma significativa contribuição para criar modelos capazes de prever o acúmulo de deformações. O objetivo deste trabalho foi aprimorar a previsão do acúmulo de deformação plástica propondo um novo método de previsão de acúmulo de deformações plásticas em contornos de grãos de um material policristalino, usando modelos de aprendizado de máquina. Este trabalho utilizou-se de dados experimentais da literatura para estruturar três bancos de dados, os que consideraram somente os contornos de grãos. Nas previsões foram utilizados os seguintes métodos: Decision Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient Boosting Regressor e Análise de Componentes Principais (PCA). Na avaliação dos modelos foram empregados os métodos de validação cruzada e reamostragem de Monte Carlo. As métricas de erro aplicadas foram o coeficiente de determinação (R2) e o coeficiente de correlação de Pearson (R). Os resultados apontaram que as previsões foram coerentes e de boa qualidade, melhorando os valores médios do coeficiente de Pearson em aproximadamente 30 por cento comparados aos valores da literatura. Para o R(2) a média de valores alcançada foi de 0.85. Conclui-se que o uso do método de aprendizado de máquina se mostra confiável na previsão do acúmulo de deformação plástica no contorno do grão de um material policristalino. / [en] Machine learning methods have been widely used in the area of solid mechanics due to the large volume of data available in the literature. The motivation for this work was the study of the accumulation of plastic strain at the grain scale. Because the use of machine learning can be a significant contribution to creating models capable of predicting the accumulation of deformation. The objective of this work was to improve the prediction of plastic strain accumulation by proposing a new method for predicting the accumulation of plastic strains in grain boundaries of a polycrystalline material, using machine learning models. This work uses experimental data from the literature to structure three databases, which only consider grain boundaries. The following methods were used in the predictions: Decision Tree, Random Forest, Stochastic Gradient Descent, K-Nearest Neighbors, Gradient Boosting Regressor, and Principal Component Analysis (PCA). Monte Carlo crossvalidation and resampling methods were used to evaluate the models. The error metrics applied were the coefficient of determination (R2) and the Pearson correlation coefficient (R). The results indicate that the predictions were coherent and of good quality, improving the average Pearson coefficient values by approximately 30 percent compared to literature values. For R(2), the average value achieved was 0.85. It is concluded that the use of the machine learning method proves to be reliable in predicting the accumulation of plastic strain at the grain boundary of a polycrystalline material.
42

[en] DISTANT SUPERVISION FOR RELATION EXTRACTION USING ONTOLOGY CLASS HIERARCHY-BASED FEATURES / [pt] SUPERVISÃO À DISTÂNCIA EM EXTRAÇÃO DE RELACIONAMENTOS USANDO CARACTERÍSTICAS BASEADAS EM HIERARQUIA DE CLASSES EM ONTOLOGIAS

PEDRO HENRIQUE RIBEIRO DE ASSIS 18 March 2015 (has links)
[pt] Extração de relacionamentos é uma etapa chave para o problema de identificação de uma estrutura em um texto em formato de linguagem natural. Em geral, estruturas são compostas por entidades e relacionamentos entre elas. As propostas de solução com maior sucesso aplicam aprendizado de máquina supervisionado a corpus anotados à mão para a criação de classificadores de alta precisão. Embora alcancem boa robustez, corpus criados à mão não são escaláveis por serem uma alternativa de grande custo. Neste trabalho, nós aplicamos um paradigma alternativo para a criação de um número considerável de exemplos de instâncias para classificação. Tal método é chamado de supervisão à distância. Em conjunto com essa alternativa, usamos ontologias da Web semântica para propor e usar novas características para treinar classificadores. Elas são baseadas na estrutura e semântica descrita por ontologias onde recursos da Web semântica são definidos. O uso de tais características tiveram grande impacto na precisão e recall dos nossos classificadores finais. Neste trabalho, aplicamos nossa teoria em um corpus extraído da Wikipedia. Alcançamos uma alta precisão e recall para um número considerável de relacionamentos. / [en] Relation extraction is a key step for the problem of rendering a structure from natural language text format. In general, structures are composed by entities and relationships among them. The most successful approaches on relation extraction apply supervised machine learning on hand-labeled corpus for creating highly accurate classifiers. Although good robustness is achieved, hand-labeled corpus are not scalable due to the expensive cost of its creation. In this work we apply an alternative paradigm for creating a considerable number of examples of instances for classification. Such method is called distant supervision. Along with this alternative approach we adopt Semantic Web ontologies to propose and use new features for training classifiers. Those features are based on the structure and semantics described by ontologies where Semantic Web resources are defined. The use of such features has a great impact on the precision and recall of our final classifiers. In this work, we apply our theory on corpus extracted from Wikipedia. We achieve a high precision and recall for a considerable number of relations.
43

[en] WEIGHTED INTERVAL SCHEDULING RESOLUTION FOR BUILDING FINANCIAL MARKET TRADING STRATEGIES / [pt] ESTRATÉGIAS DE NEGOCIAÇÃO DE ATIVOS FINANCEIROS UTILIZANDO AGENDAMENTO POR INTERVALOS PONDERADOS

LEANDRO GUIMARAES MARQUES ALVIM 03 September 2013 (has links)
[pt] Há diferentes tipos de investidores que compõem o mercado financeiro e produzem oportunidades de mercado em diferentes escalas de tempo. Isto evidencia uma estrutura heterogênea de mercado. Nesta tese conjecturamos que podem haver oportunidades mais preditivas do que outras, o que motiva a investigação e a construção de estratégias multirresolução. Para estratégias multirresolução há abordagens que utilizam a decomposição de séries temporais para a operação em resoluções distintas ou propostas para a construção de conjuntos de dados de acordo com decisões de negociação multirresolução. As demais estratégias, em sua maioria, são de resolução única. Nesta tese, abordamos dois problemas, maximização de retorno acumulado e maximização de retorno acumulado com o risco controlado, e propomos uma abordagem computacionalmente eficiente para a construção de estratégias multirresolução, a partir da resolução do problema de Agendamento de Intervalos Ponderados. Nossa metodologia consiste em dividir o dia de mercado em intervalos, especializar traders por intervalo e associar um prêmio a cada trader. Para o problema de maximização de retorno acumulado, o prêmio de cada trader corresponde ao retorno acumulado entre dias para o intervalo de operação associado. Para o problema de maximização de retorno acumulado com controle do risco, o prêmio de cada trader corresponde ao retorno acumulado dividido pelo risco para o intervalo de operação associado. Diferentemente do problema anterior, empregamos um conjunto de traders por intervalo e utilizamos o método de Média-Variância, de Markowitz, para encontrar pesos ótimos para conjunto de traders de forma a controlar o risco. Conjecturamos aqui que o controle do risco por intervalo acarreta no controle do risco global da estratégia para o dia. Para a sinalização das ordens de compra e venda, nossos traders utilizam detectores de oportunidades. Estes detectores utilizam algoritmos de Aprendizado de Máquina que processam informações de indicadores de análise técnica e dados de preço e volume. Realizamos experimentos para dez ativos de maior liquidez da BMF&Bovespa para um período de um ano. Nossa estratégia de Composição de um Time de Traders (CTT) apresenta 0, 24 por cento de lucro médio diário e 77, 24 por cento de lucro anual, superando em 300 por cento e 380 por cento, respectivamente, uma estratégia de resolução única. Para os custos adotados, a estratégia CTT é viável a partir de 50.000,00 dólares. Para o problema de maximização do retorno acumulado com risco controlado, a estratégia de Composição de Carteiras por Intervalos (CCI) apresenta em média 0, 179 por cento de lucro diário e 55, 85 por cento de lucro anual, superando o método de Média-Variância de Markowitz. Para os custos adotados, a estratégia CCI é viável a partir de 2.000.000,00 dólares. As principais contribuições desta tese são: abordagem por Agendamentos de Intervalos Ponderados para a construção de estratégias e o emprego do modelo de Média-Variância para compor uma carteira de traders ao invés da tradicional abordagem por ativos. / [en] There are different types of investors who make up the financial market and produce market opportunities at different time scales. This indicates a heterogeneous market structure. In this thesis, we conjecture that may have more predictive opportunities than others, what motivates research and construction of we denominate multirresolution optimal strategies. For multirresolution strategies there are time series decomposition approaches for operating at different resolutions or proposals for dataset construction according to multirresolution trading optimal decisions. The other approaches, are single resolution. Thus, we address two problems, maximizing cumulative returns and maximizing cumulative returns with risk control. Here, we propose solving the Weighted Interval Scheduling problem to build multirresolution strategies. Our methodology consists of dividing the market day into time intervals, specialize traders by interval and associate a prize to each trader. For the cumulative return maximization problem, the prize corresponds to cumulative returns between days for the associated trader operation interval. For the cumulative return maximization problem with risk control each trader prize corresponds to cumulative return divided by risk with associated operation interval. In order to control the risk, we employ a set of traders by interval and apply the Markowitz Mean-Variance method to find optimal weight for set of traders. Here, we conjecture that controlling each interval risk leads to the overall risk control of the day. For signaling buy and sell orders, our traders use opportunity detectors. These detectors correspond to Machine Learning algorithms that process technical analysis indicators, price and volume data. We conducted experiments for ten of the most liquid BMF&Bovespa stocks to a one year span. Our Trading Team Composition strategy results indicates an average of 0.24 per cent daily profit and a 77.24 per cent anual profit, exceeding by 300 per cent and 380 per cent, respectively, a single resolution strategy. Regarding operational costs, CTT strategy is viable from 50,000 dollars. For the cumulative return maximization problem under risk control, our Portfolio Composition by Intervals strategy results indicates an average of 0.179 per cent daily profit and a 55.85 per cent anual profit, exceeding a Markowitz Mean- Variance method. Regarding operational costs, CCI strategy is viable from 2,000,000 dollars. Our main contributions are: the Weighted Interval Scheduling approach for building multirresolution strategies and a portfolio composition of traders instead of stocks performances.
44

[en] SQLLOMINING: FINDING LEARNING OBJECTS USING MACHINE LEARNING METHODS / [pt] SQLLOMINING: OBTENÇÃO DE OBJETOS DE APRENDIZAGEM UTILIZANDO TÉCNICAS DE APRENDIZADO DE MÁQUINA

SUSANA ROSICH SOARES VELLOSO 04 December 2007 (has links)
[pt] Objetos de Aprendizagem ou Learning Objects (LOs) são porções de material didático tais como textos que podem ser reutilizados na composição de outros objetos maiores (aulas ou cursos). Um dos problemas da reutilização de LOs é descobri-los em seus contextos ou documentos texto originais tais como livros, e artigos. Visando a obtenção de LOs, este trabalho apresenta um processo que parte da extração, tratamento e carga de uma base de dados textual e em seguida, baseando-se em técnicas de aprendizado de máquina, uma combinação de EM (Expectation-Maximization) e um classificador Bayesiano, classifica-se os textos extraídos. Tal processo foi implementado em um sistema chamado SQLLOMining, que usa SQL como linguagem de programação e técnicas de mineração de texto na busca de LOs. / [en] Learning Objects (LOs) are pieces of instructional material like traditional texts that can be reused in the composition of more complex objects like classes or courses. There are some difficulties in the process of LO reutilization. One of them is to find pieces of documents that can be used like LOs. In this work we present a process that, in search for LOs, starts by extracting, transforming and loading a text database and then continue clustering these texts, using a machine learning methods that combines EM (Expectation- Maximization) and a Bayesian classifier. We implemented that process in a system called SQLLOMining that uses the SQL language and text mining methods in the search for LOs.
45

[en] A STUDY OF MULTILABEL TEXT CLASSIFICATION ALGORITHMS USING NAIVE-BAYES / [pt] UM ESTUDO DE ALGORITMOS PARA CLASSIFICAÇÃO AUTOMÁTICA DE TEXTOS UTILIZANDO NAIVE-BAYES

DAVID STEINBRUCH 12 March 2007 (has links)
[pt] A quantidade de informação eletrônica vem crescendo de forma acelerada, motivada principalmente pela facilidade de publicação e divulgação que a Internet proporciona. Desta forma, é necessária a organização da informação de forma a facilitar a sua aquisição. Muitos trabalhos propuseram resolver este problema através da classificação automática de textos associando a eles vários rótulos (classificação multirótulo). No entanto, estes trabalhos transformam este problema em subproblemas de classificação binária, considerando que existe independência entre as categorias. Além disso, utilizam limiares (thresholds), que são muito específicos para o conjunto de treinamento utilizado, não possuindo grande capacidade de generalização na aprendizagem. Esta dissertação propõe dois algoritmos de classificação automática de textos baseados no algoritmo multinomial naive Bayes e sua utilização em um ambiente on-line de classificação automática de textos com realimentação de relevância pelo usuário. Para testar a eficiência dos algoritmos propostos, foram realizados experimentos na base de notícias Reuters 21758 e na base de documentos médicos Ohsumed. / [en] The amount of electronic information has been growing fast, mainly due to the easiness of publication and spreading that Internet provides. Therefore, is necessary the organisation of information to facilitate its retrieval. Many works have solved this problem through the automatic text classification, associating to them several labels (multilabel classification). However, those works have transformed this problem into binary classification subproblems, considering there is not dependence among categories. Moreover, they have used thresholds, which are very sepecific of the classifier document base, and so, does not have great generalization capacity in the learning process. This thesis proposes two text classifiers based on the multinomial algorithm naive Bayes and its usage in an on-line text classification environment with user relevance feedback. In order to test the proposed algorithms efficiency, experiments have been performed on the Reuters 21578 news base, and on the Ohsumed medical document base.
46

Uso de Seleção de Características da Wikipedia na Classificação Automática de Textos. / Selection of Wikipedia features for automatic text classification

Alvarenga, Leonel Diógenes Carvalhaes 20 September 2012 (has links)
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2014-07-31T14:43:10Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) / Made available in DSpace on 2014-07-31T14:43:10Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) uso_de_selecao_de_caracteristicas_da_wikipedia_na_classificacao_automatica_de_textos.pdf: 1449954 bytes, checksum: 9086dec3868b6b703340b550c614d33d (MD5) Previous issue date: 2012-09-20 / Fundação de Amparo à Pesquisa do Estado de Goiás - FAPEG / The traditional methods of text classification typically represent documents only as a set of words, also known as "Bag of Words"(BOW). Several studies have shown good results on making use of thesauri and encyclopedias as external information sources, aiming to expand the BOW representation by the identification of synonymy and hyponymy relationships between present terms in a document collection. However, the expansion process may introduce terms that lead to an erroneous classification. In this paper, we propose the use of feature selection measures in order to select features extracted from Wikipedia in order to improve the efectiveness of the expansion process. The study also proposes a feature selection measure called Tendency Factor to One Category (TF1C), so that the experiments showed that this measure proves to be competitive with the other measures Information Gain, Gain Ratio and Chisquared, in the process, delivering the best gains in microF1 and macroF1, in most experiments. The full use of features selected in this process showed to be more stable in assisting the classification, while it showed lower performance on restricting its insertion only to documents of the classes in which these features are well punctuated by the selection measures. When applied in the Reuters-21578, Ohsumed first - 20000 and 20Newsgroups collections, our approach to feature selection allowed the reduction of noise insertion inherent in the expansion process, and improved the results of use hyponyms, and demonstrated that the synonym relationship from Wikipedia can also be used in the document expansion, increasing the efectiveness of the automatic text classification. / Os métodos tradicionais de classificação de textos normalmente representam documentos apenas como um conjunto de palavras, também conhecido como BOW (do inglês, Bag of Words). Vários estudos têm mostrado bons resultados ao utilizar-se de tesauros e enciclopédias como fontes externas de informações, objetivando expandir a representação BOW a partir da identificação de relacionamentos de sinonômia e hiponômia entre os termos presentes em uma coleção de documentos. Todavia, o processo de expansão pode introduzir termos que conduzam a uma classificação errônea do documento. No presente trabalho, propõe-se a aplicação de medidas de avaliação de termos para a seleção de características extraídas da Wikipédia, com o objetivo de melhorar a eficácia de sua utilização durante o processo de expansão de documentos. O estudo também propõe uma medida de seleção de características denominada Fator de Tendência a uma Categoria (FT1C), de modo que os experimentos realizados demonstraram que esta medida apresenta desempenho competitivo com as medidas Information Gain, Gain Ratio e Chi-squared, neste processo, apresentando os melhores ganhos de microF1 e macroF1, na maioria dos experimentos realizados. O uso integral das características selecionadas neste processo, demonstrou auxiliar a classificação de forma mais estável, ao passo que apresentou menor desempenho ao se restringir sua inserção somente aos documentos das classes em que estas características são bem pontuadas pelas medidas de seleção. Ao ser aplicada nas coleções Reuters-21578, Ohsumed rst-20000 e 20Newsgroups, a abordagem com seleção de características permitiu a redução da inserção de ruídos inerentes do processo de expansão e potencializou o uso de hipônimos, assim como demonstrou que as relações de sinonômia da Wikipédia também podem ser utilizadas na expansão de documentos, elevando a eficácia da classificação automática de textos.
47

[en] MACHINE LEARNING FOR SENTIMENT CLASSIFICATION / [pt] APRENDIZADO DE MÁQUINA PARA O PROBLEMA DE SENTIMENT CLASSIFICATION

PEDRO OGURI 18 May 2007 (has links)
[pt] Sentiment Analysis é um problema de categorização de texto no qual deseja-se identificar opiniões favoráveis e desfavoráveis com relação a um tópico. Um exemplo destes tópicos de interesse são organizações e seus produtos. Neste problema, documentos são classificados pelo sentimento, conotação, atitudes e opiniões ao invés de se restringir aos fatos descritos neste. O principal desafio em Sentiment Classification é identificar como sentimentos são expressados em textos e se tais sentimentos indicam uma opinião positiva (favorável) ou negativa (desfavorável) com relação a um tópico. Devido ao crescente volume de dados disponível na Web, onde todos tendem a ser geradores de conteúdo e expressarem opiniões sobre os mais variados assuntos, técnicas de Aprendizado de Máquina vem se tornando cada vez mais atraentes. Nesta dissertação investigamos métodos de Aprendizado de Máquina para Sentiment Analysis. Apresentamos alguns modelos de representação de documentos como saco de palavras e N-grama. Testamos os classificadores SVM (Máquina de Vetores Suporte) e Naive Bayes com diferentes modelos de representação textual e comparamos seus desempenhos. / [en] Sentiment Analysis is a text categorization problem in which we want to identify favorable and unfavorable opinions towards a given topic. Examples of such topics are organizations and its products. In this problem, docu- ments are classifed according to their sentiment, connotation, attitudes and opinions instead of being limited to the facts described in it. The main challenge in Sentiment Classification is identifying how sentiments are expressed in texts and whether they indicate a positive (favorable) or negative (unfavorable) opinion towards a topic. Due to the growing volume of information available online in an environment where we all tend to be content generators and express opinions on a variety of subjects, Machine Learning techniques have become more and more attractive. In this dissertation, we investigate Machine Learning methods applied to Sentiment Analysis. We present document representation models such as bag-of-words and N-grams.We compare the performance of the Naive Bayes and the Support Vector Machine classifiers for each proposed model
48

[en] ENVIRONMENT CHANGES DETECTION: A PROACTIVE SYSTEM TO MONITOR MOVING OBJECTS / [pt] DETECÇÃO DE MUDANÇAS NO AMBIENTE: UM SISTEMA PROATIVO PARA MONITORAR OBJETOS MÓVEIS

FABIO DA COSTA ALBUQUERQUE 13 February 2017 (has links)
[pt] Sistemas de posicionamento, combinados com tecnologias de comunicação de baixo custo, abrem possibilidades interessantes para implementar aplicações em tempo real que monitoram objetos móveis e que apoiam sistemas de tomada de decisão. Inicialmente, esta dissertação discute requisitos básicos para aplicações proativas de monitoramento em tempo real. Em seguida, propõe uma arquitetura para aplicações proativas que monitoram objetos móveis, explorando a semântica da trajetória e a dinâmica do ambiente. Por fim, fornece um exemplo sobre como uma aplicação que monitora uma frota de caminhões pode se tornar proativa, utilizando notícias sobre condições da malha viária, a partir da publicação de dados em texto não estruturado através da Internet. A dissertação descreve como estruturar e georreferenciar as notícias, utilizando serviços de geocodificação. / [en] Positioning systems, combined with inexpensive communication technologies, open interesting possibilities to implement real-time applications that monitor moving objects and that support decision making. This dissertation first discusses basic requirements for proactive real-time monitoring applications. Then, it proposes an architecture to deploy applications that monitor moving objects, are pro-active, explore trajectory semantics and are sensitive to environment dynamics. Lastly, this dissertation provides an example of how an application that monitors a fleet of trucks can become proactive, using unstructured text information available on Internet focused on road conditions change. The dissertation describes how to structure and geo-reference the text, using available geocoding services.
49

[en] PREDICTING TRENDS IN THE STOCK MARKET / [pt] PREDIZENDO TENDÊNCIAS NA BOLSA DE VALORES

JOAO PAULO FORNY DE MELO 02 August 2018 (has links)
[pt] Investidores estão sempre à procura de uma vantagem. Porém, tradicionais teorias financeiras nos dizem que tentar predizer tendências na bolsa de valores é um esforço em vão, uma vez que seguem um passeio aleatório, i.e., um processo estocástico ou randômico. Além disso, afirma-se que o mercado é eficiente de maneira que sempre incorpora e reflete toda informação relevante, o que torna impossível bater o mercado. Recentemente, com o crescimento da web e aumento da disponibilidade de dados em conjunto com a evolução dos algoritmos de Aprendizado de Máquina, diversos trabalhos tem aplicado técnicas de Processamento de Linguagem Natural em notícias financeiras e dados de redes sociais para prever variações do preço de ações. Consequentemente, estão surgindo fortes evidências que o mercado pode, em algum grau, ser previsto. Este trabalho descreve o desenvolvimento de uma aplicação baseada em Aprendizado de Máquina para realizar a predição de tendências no mercado de ações, i.e., variações negativas, positivas ou neutras de preços com granularidade de minuto. Avaliamos o sistema usando dados de cotação de ações da B3 (Brasil Bolsa Balcão), antiga BM&FBOVESPA, e um dataset de tópicos mais relevantes buscados no Google Search e seus artigos relacionados, que são disponibilizados pela plataforma Google Trends e coletados, minuto a minuto, de 15/08/2016 até 10/07/2017. Os experimentos mostram que esses dados provêem informação relevante para a tarefa em questão, onde conseguimos uma acurácia de 69.24 porcento para a predição de tendências do ativo PETR4, criando alguma / [en] Investors are always looking for an edge. However, traditional economic theories tell us that trying to predict short-term stock price movements is wasted effort, since it approximate a random walk, i.e., a stochastic or random process. Besides, these theories state that the market is efficient enough to always incorporate and reflect all relevant information, making it impossible to beat the market. In recent years, with the growth of the web and data availability in conjunction with advances in Machine Learning, a number of works are using Natural Language Processing to predict share price variations based on financial news and social networks data. Therefore, strong evidences are surfacing that the market can, in some level, be predicted. This work describes the development of an application based on Machine Learning to predict trends in the stock market, i.e., positive, negative or neutral price variations with minute granularity. We evaluate our system using B3 (Brasil Bolsa Balcão), formerly BM&FBOVESPA, stock quotes data, and a dataset with the most relevant topics of Google Search and its related articles, provided by the Google Trends platform and collected, minute by minute, from 08/15/2016 to 07/10/2017. The experiments show that this data provides useful information to the task at hand, in which we achieve 69.24 per cent accuracy predicting trends for the PETR4 stock, creating some leverage to make profits possible with intraday trading.
50

[en] MAS-SCHOOL E ASYNC: A METHOD AND A FRAMEWORK FOR BUILDING INTELLIGENT AGENTS / [pt] MAS-SCHOOL E ASYNC: UM MÉTODO E UM FRAMEWORK PARA CONSTRUÇÃO DE AGENTES INTELIGENTES

JOSE ALBERTO RODRIGUES PEREIRA SARDINHA 08 July 2005 (has links)
[pt] Agentes de Software é uma tecnologia que permite criar simuladores e sistemas inteligentes que tomam decisões automaticamente. A primeira contribuição dessa tese é o MAS-School, um método para modelar e implementar agentes de software inteligentes desde as primeiras fases de desenvolvimento. Esse método também apresenta várias orientações de como incluir aprendizado na fase de design e implementação. O método apresenta no final uma estratégia incremental de desenvolvimento para permitir a avaliação do desempenho das técnicas de machine learning. A segunda contribuição dessa tese é o framework ASYNC. O ASYNC é composto por um conjunto de ferramentas de engenharia de software para auxiliar a construção de sistemas baseados em agentes assíncronos, cooperativos e inteligentes. Esta tese apresenta quatro estudos de casos complexos desenvolvidos com agentes inteligentes para exemplificar o uso do método e framework. A primeira aplicação apresenta um sistema baseado em agentes para criar promoções em um mercado varejista utilizando o conceito de agregação de produtos. A segunda aplicação apresenta um mercado virtual para compra e venda de bens. A terceira aplicação é um sistema multi-agente distribuído para um complexo cenário de procurement em leilões simultâneos e interdependentes. Essa aplicação participou do Trading Agent Competition em 2004 e obteve a terceira colocação. A quarta aplicação é um sistema multi-agente para um Supply Chain Management. / [en] The agent technology is used to develop systems that perform several complex tasks. This thesis presents the MAS-School method for modeling and implementing intelligent agent-based systems. The method presents a systematic approach to support a disciplined introduction of machine learning techniques in multi-agent systems from an early stage of design. The proposed approach encompasses guidelines to both the design and implementation phases of an agent-based system. It is based on an incremental development strategy that largely relies on simulation and testing techniques. This thesis also presents the ASYNC framework that is composed of software engineering tools for building agent based system for asynchronous, cooperative and intelligent agents. This thesis presents four complex applications that used the proposed method and framework in the design and implementation phase. The first case study presents an application that discovers the most appealing offerings for consumers in a retail market. The second case study presents a virtual marketplace for buying and selling goods with automatic negotiation. The third case study is a multi-agent system for a complex procurement scenario with interdependent and simultaneous auctions. This system achieved the third place in the 2004 TAC Classic competition. The fourth case study is a multi-agent system for a PC manufacturer scenario based on sourcing of components, manufacturing of PC's and sales to customers.

Page generated in 0.0888 seconds