Spelling suggestions: "subject:"aprendizado dde maquina"" "subject:"aprendizado dde yaquina""
81 |
[pt] A EFICÁCIA DA OTIMIZAÇÃO DE DOIS NÍVEIS EM PROBLEMAS DE SISTEMAS DE POTÊNCIA DE GRANDE PORTE: UMA FERRAMENTA PARA OTIMIZAÇÃO DE DOIS NÍVEIS, UMA METODOLOGIA PARA APRENDIZADO DIRIGIDO PELA APLICAÇÃO E UM SIMULADOR DE MERCADO / [en] THE EFFECTIVENESS OF BILEVEL OPTIMIZATION IN LARGE-SCALE POWER SYSTEMS PROBLEMS: A BILEVEL OPTIMIZATION TOOLBOX, A FRAMEWORK FOR APPLICATION-DRIVEN LEARNING, AND A MARKET SIMULATORJOAQUIM MASSET LACOMBE DIAS GARCIA 25 January 2023 (has links)
[pt] A otimização de binível é uma ferramenta extremamente poderosa para
modelar problemas realistas em várias áreas. Por outro lado, sabe-se que a otimização
de dois níveis frequentemente leva a problemas complexos ou intratáveis.
Nesta tese, apresentamos três trabalhos que expandem o estado da arte da
otimização de dois níveis e sua interseção com sistemas de potência. Primeiro,
apresentamos BilevelJuMP, um novo pacote de código aberto para otimização
de dois níveis na linguagem Julia. O pacote é uma extensão da linguagem
de modelagem de programação matemática JuMP, é muito geral, completo e
apresenta funcionalidades únicas, como a modelagem de programas cônicos no
nível inferior. O software permite aos usuários modelar diversos problemas de
dois níveis e resolvê-los com técnicas avançadas. Como consequência, torna a
otimização de dois níveis amplamente acessível a um público muito mais amplo.
Nos dois trabalhos seguintes, desenvolvemos métodos especializados para
lidar com modelos complexos e programas de dois níveis de grande escala decorrentes
de aplicações de sistemas de potência. Em segundo lugar, usamos a
programação de dois níveis como base para desenvolver o Aprendizado Dirigido
pela Aplicação, uma nova estrutura de ciclo fechado na qual os processos
de previsão e tomada de decisão são mesclados e co-otimizados. Descrevemos o
modelo matematicamente como um programa de dois níveis, provamos resultados
de convergência e descrevemos métodos de solução heurísticos e exatos
para lidar com sistemas de grande escala. O método é aplicado para previsão de
demanda e alocação de reservas na operação de sistemas de potência. Estudos
de caso mostram resultados muito promissores com soluções de boa qualidade em sistemas realistas com milhares de barras. Em terceiro lugar, propomos
um simulador para modelar mercados de energia hidrotérmica de longo prazo
baseados em ofertas. Um problema de otimização estocástica multi-estágio é
formulado para acomodar a dinâmica inerente aos sistemas hidrelétricos. No
entanto, os subproblemas de cada etapa são programas de dois níveis para
modelar agentes estratégicos. O simulador é escalável em termos de dados do
sistema, agentes, cenários e estágios considerados. Concluímos o terceiro trabalho
com simulações em grande porte com dados realistas do sistema elétrico
brasileiro com 3 agentes formadores de preço, 1000 cenários e 60 estágios mensais.
Esses três trabalhos mostram que, embora a otimização de dois níveis
seja uma classe extremamente desafiadora de problemas NP-difíceis, é possível
desenvolver algoritmos eficazes que levam a soluções de boa qualidade. / [en] Bilevel Optimization is an extremely powerful tool for modeling realistic
problems in multiple areas. On the other hand, Bilevel Optimization is known
to frequently lead to complex or intractable problems. In this thesis, we
present three works expanding the state of the art of bilevel optimization
and its intersection with power systems. First, we present BilevelJuMP, a
novel open-source package for bilevel optimization in the Julia language. The
package is an extension of the JuMP mathematical programming modeling
language, is very general, feature-complete, and presents unique functionality,
such as the modeling of lower-level cone programs. The software enables
users to model a variety of bilevel problems and solve them with advanced
techniques. As a consequence, it makes bilevel optimization widely accessible
to a much broader public. In the following two works, we develop specialized
methods to handle much model complex and very large-scale bilevel programs
arising from power systems applications. Second, we use bilevel programming
as the foundation to develop Application-Driven Learning, a new closed-loop
framework in which the processes of forecasting and decision-making are
merged and co-optimized. We describe the model mathematically as a bilevel
program, prove convergence results and describe exact and tailor-made heuristic
solution methods to handle very large-scale systems. The method is applied
to demand forecast and reserve allocation in power systems operation. Case
studies show very promising results with good quality solutions on realistic
systems with thousands of buses. Third, we propose a simulator to model
long-term bid-based hydro-thermal power markets. A multi-stage stochastic program is formulated to accommodate the dynamics inherent to hydropower
systems. However, the subproblems of each stage are bilevel programs in
order to model strategic agents. The simulator is scalable in terms of system
data, agents, scenarios, and stages being considered. We conclude the third
work with large-scale simulations with realistic data from the Brazilian power
system with 3 price maker agents, 1000 scenarios, and 60 monthly stages.
These three works show that although bilevel optimization is an extremely
challenging class of NP-hard problems, it is possible to develop effective
algorithms that lead to good-quality solutions.
|
82 |
[en] REAL TIME EMOTION RECOGNITION BASED ON IMAGES USING ASM AND SVM / [pt] RECONHECIMENTO DE EMOÇÕES ATRAVÉS DE IMAGENS EM TEMPO REAL COM O USO DE ASM E SVMGUILHERME CARVALHO CUNHA 09 July 2014 (has links)
[pt] As expressões faciais transmitem muita informação sobre um indivíduo, tornando a capacidade de interpretá-las uma tarefa muito importante, com aplicações em diversas áreas, tais como Interação Homem Máquina, Jogos Digitais, storytelling interativo e TV/Cinema digital. Esta dissertação discute o processo de reconhecimento de emoções em tempo real usando ASM (Active Shape Model) e SVM (Support Vector Machine) e apresenta uma comparação entre duas formas comumente utilizadas na etapa de extração de atributos: faces neutra e média. Como não existe tal comparação na literatura, os resultados apresentados são valiosos para o desenvolvimento de aplicações envolvendo expressões de emoção em tempo real. O presente trabalho considera seis tipos de emoções: felicidade, tristeza, raiva, medo, surpresa e desgosto. / [en] The facial expressions provide a high amount of information about a person, making the ability to interpret them a high valued task that can be used in several fields of Informatics such as Human Machine Interface, Digital Games, interactive storytelling and digital TV/Cinema. This dissertation discusses the process of recognizing emotions in real time using ASM (Active Shape Model) and SVM (Support Vector Machine) and
presents a comparison between two commonly used ways when extracting the attributes: neutral face and average. As such comparison can not be found in the literature, the results presented are valuable to the development of applications that deal with emotion expression in real time. The current study considers six types of emotions: happiness, sadness, anger, fear, surprise and disgust.
|
83 |
[en] A NEURAL NETWORK FOR ONLINE PORTFOLIO SELECTION WITH SIDE INFORMATION / [pt] UMA REDE NEURAL PARA O PROBLEMA DE SELEÇÃO ONLINE DE PORTFÓLIO COM INFORMAÇÃO LATERALGUILHERME AUGUSTO SCHUTZ 15 January 2019 (has links)
[pt] O mercado financeiro é essencial na economia, trazendo estabilidade, acesso a novos tipos de investimentos, e aumentando a capacidade das empresas no acesso ao crédito. A constante busca por reduzir o papel de especialistas humanos na tomada de decisão, visa reduzir o risco inerente as emoções intrínsecas do ser humano, do qual a máquina não compartilha. Como consequência, reduzindo efeitos especulativos no mercado, e aumentando a precisão nas decisões tomadas. Neste trabalho é discutido o problema de seleção de portfólios online, onde um vetor de alocações de ativos é requerido em cada passo. O algoritmo proposto é o multilayer perceptron with side information - MLPi. Este algoritmo utiliza redes neurais para a solução do problema quando o investidor tem acesso a informações futuras sobre o preço
dos ativos. Para avaliar o uso da informação lateral na seleção de portfolio, testamos empiricamente o MLPi em contraste com dois algoritmos, um baseline e o estado-da-arte. Como baseline é utilizado o buy-and-hold. O estado-da-arte é o algoritmo online moving average mean reversion proposto por Li e Hoi
(2012). Para avaliar a utilização de informação lateral no algoritmo MLPi é definido um benchmark baseado numa solução ótima simples utilizando a informação lateral, mas sem considerar a acurácia da informação futura. Para os experimentos, utilizamos informações a nível de minuto do mercado de ações brasileiro, operados na bolsa de valores B3. É simulado um preditor de preço com 7 níveis de acurácia diferentes para 200 portfólios. Os resultados apontam que tanto o benchmark quanto o MLPi superam os dois algoritmos selecionados, para níveis de acurácia de um ativo maiores que 50 por cento, e na média, o MLPi supera o benchmark em todos os níveis de acurácia simulados. / [en] The financial market is essential in the economy, bringing stability, access to new types of investments, and increasing the ability of companies to access credit. The constant search for reducing the role of human specialists in decision making aims to reduce the risk inherent in the intrinsic emotions of the human being, which the machine does not share. As a consequence, reducing speculative effects in the market, and increasing the precision in the decisions taken. In this paper, we discuss the problem of selecting portfolios online, where a vector of asset allocations is required in each step. The proposed algorithm is the multilayer perceptron with side information - MLPi. This algorithm uses neural networks to solve the problem when the investor has access to future information on the price of the assets. To evaluate the use of side information in portfolio selection, we empirically tested MLPi in contrast to two algorithms, a baseline and the state-of-the-art. As a baseline, buy-andhold is used. The state-of-the-art is the online moving average mean reversion algorithm proposed by Li and Hoi (2012). To evaluate the use of side information in the algorithm MLPi a benchmark based on a simple optimal solution using the side information is defined, but without considering the accuracy of the future information. For the experiments, we use minute-level information from the Brazilian stock market, traded on the B3 stock exchange. A price predictor is simulated with 7 different accuracy levels for 200 portfolios. The results show that both the benchmark and MLPi outperform the two algorithms selected, for asset accuracy levels greater than 50 percent, and on average, MLPi outperforms the benchmark at all levels of simulated accuracy.
|
84 |
[en] QUOTATION EXTRACTION FOR PORTUGUESE / [pt] EXTRAÇÃO DE CITAÇÕES PARA O PORTUGUÊSWILLIAM PAULO DUCCA FERNANDES 24 January 2017 (has links)
[pt] A Extração de Citações consiste na identificação de citações de um texto e na associação destas com seus autores. Neste trabalho, apresentamos um sistema de Extração de Citações para Português. A tarefa de Extração de Citações já foi abordada usando diversas técnicas e para diversas línguas.Nossa proposta é diferente dos trabalhos anteriores, pois usamos Aprendizado de Máquina para construir automaticamente regras especializadas ao invés de regras criadas por humanos. Modelos de Aprendizado de Máquina geralmente apresentam forte capacidade de generalização comparados a modelos feitos por humanos. Além disso, nós podemos facilmente adaptar nosso modelo para outras línguas, precisando apenas de uma lista de verbos de citação para uma dada língua. Os sistemas propostos anteriormente provavelmente precisariam de uma adaptação no conjunto de regras de forma a classificar corretamente as citações, o que consumiria tempo. Nós atacamos a tarefa de Extração de Citações usando um modelo para o algoritmo de Aprendizado de Transformações Guiado por Entropia e um modelo para o algoritmo do Perceptron Estruturado. Com o objetivo de treinar e avaliar o sistema, nós construímos o corpus GloboQuotes com notícias extraídas do portal globo.com. Adicionamos etiquetas morfossintáticas ao corpus, utilizando um anotador estado da arte. O Perceptron Estruturado baseado no agendamento de tarefas ponderado tem desempenho F sub Beta igual a 1 igual a 76,80 por cento. / [en] Quotation Extraction consists of identifying quotations from a text and associating them to their authors. In this work, we present a Quotation Extraction system for Portuguese. Quotation Extraction has been previously approached using different techniques and for several languages. Our proposal differs from previous work since we use Machine Learning to automatically build specialized rules instead of human-derived rules. Machine Learning models usually present stronger generalization power compared to human-derived models. In addition, we are able to easily adapt our model to other languages, needing only a list of verbs of speech for a given language. The previously proposed systems would probably need a rule set adaptation to correctly classify the quotations, which would be time consuming. We tackle the Quotation Extraction task using one model for the Entropy Guided Transformation Learning algorithm and another one for the Structured Perceptron algorithm. In order to train and evaluate the system, we have build the GloboQuotes corpus, with news extracted from the globo.com portal. We add part-of-speech tags to the corpus using a state-of-the-art tagger. The Structured Perceptron based on weighted interval scheduling obtains an F sub Beta equal 1 score of 76.80 per cent.
|
85 |
[en] A SYSTEM FOR STOCK MARKET FORECASTING AND SIMULATION / [pt] UM SISTEMA PARA PREDIÇÃO E SIMULAÇÃO DO MERCADO DE CAPITAISPAULO DE TARSO GOMIDE CASTRO SILVA 02 February 2017 (has links)
[pt] Nos últimos anos, vem crescendo o interesse acerca da predição do comportamento do mercado de capitais, tanto por parte dos investidores quanto dos pesquisadores. Apesar do grande número de publicações tratando esse problema, predizer com eficiência futuras tendências e desenvolver estratégias de negociação capazes de traduzir boas predições em lucros são ainda grandes desafios. A dificuldade em realizar tais tarefas se deve tanto à não linearidade e grande volume de ruídos presentes nos dados do mercado, quanto à falta de sistemas que possam avaliar com propriedade a qualidade das predições realizadas. Nesse trabalho, são realizadas predições de séries temporais visando auxiliar o investidor tanto em operações de compra e venda, como em Pairs Trading. Além disso, as predições são feitas considerando duas diferentes periodicidades. Uma predição interday, que considera apenas dados diários e tem como objetivo a predição de valores referentes ao presente dia. E uma predição intraday, que visa predizer valores referentes a cada hora de negociação do dia atual e para isso considera também os dados intraday conhecidos até o momento que se deseja prever. Para ambas as tarefas propostas, foram testadas três ferramentas de predição, quais sejam, Regressão por Mínimos Quadrados Parciais, Regressão por Vetores de Suporte e Redes Neurais Artificiais. Com o intuito de melhor avaliar a qualidade das predições realizadas, é proposto ainda um trading system. Os testes foram realizados considerando ativos das companhias mais negociadas da BM e FBOVESPA, a bolsa de valores oficial do Brasil e terceira maior do mundo. Os resultados dos três preditores são apresentados e comparados a quatro benchmarks, bem como com a solução ótima. A diferença na qualidade de predição, considerando o erro de predição ou as métricas do trading system, são notáveis. Se quando analisado apenas o Erro Percentual Absoluto Médio os preditores propostos não mostram uma melhora significativa, quando as métricas do trading system são consideradas eles apresentam um resultado bem superior. O retorno anual do investimento em alguns casos atinge valor superior a 300 por cento. / [en] The interest of both investors and researchers in stock market behavior forecasting has increased throughout the recent years. Despite the wide number of publications examining this problem, accurately predicting future stock trends and developing business strategies capable of turning good predictions into profits are
still great challenges. This is partly due to the nonlinearity and noise inherent to the stock market data source, and partly because benchmarking systems to assess the forecasting quality are not publicly available. Here, we perform time series forecasting aiming to guide the investor both into Pairs Trading and buy and sell
operations. Furthermore, we explore two different forecasting periodicities. First, an interday forecast, which considers only daily data and whose goal is predict values referring to the current day. And second, the intraday approach, which aims to predict values referring to each trading hour of the current day and also
takes advantage of the intraday data already known at prediction time. In both forecasting schemes, we use three regression tools as predictor algorithms, which are: Partial Least Squares Regression, Support Vector Regression and Artificial Neural Networks. We also propose a trading system as a better way to assess
the forecasting quality. In the experiments, we examine assets of the most traded companies in the BM and FBOVESPA Stock Exchange, the world s third largest and official Brazilian Stock Exchange. The results for the three predictors are presented and compared to four benchmarks, as well as to the optimal solution.
The difference in the forecasting quality, when considering either the forecasting error metrics or the trading system metrics, is remarkable. If we consider just the mean absolute percentage error, the proposed predictors do not show a significant superiority. Nevertheless, when considering the trading system evaluation, it shows really outstanding results. The yield in some cases amounts to an annual return on investment of more than 300 per cent.
|
86 |
[en] NAMED ENTITY RECOGNITION FOR PORTUGUESE / [pt] RECONHECIMENTO DE ENTIDADES MENCIONADAS PARA O PORTUGUÊSDANIEL SPECHT SILVA MENEZES 13 December 2018 (has links)
[pt] A produção e acesso a quantidades imensas dados é um elemento pervasivo da era da informação. O volume de informação disponível é sem precedentes na história da humanidade e está sobre constante processo de expansão. Uma oportunidade que emerge neste ambiente é o desenvolvimento de aplicações que sejam capazes de estruturar conhecimento contido nesses dados. Neste contexto se encaixa a área de Processamento de Linguagem Natural (PLN) - Natural Language Processing (NLP) - , ser capaz de extrair informações estruturadas de maneira eficiente de fontes textuais. Um passo fundamental para esse fim é a tarefa de Reconhecimento de Entidades Mencionadas (ou nomeadas) - Named Entity Recognition (NER) - que consistem em delimitar e categorizar menções a entidades num texto. A construção de sistemas para NLP deve ser acompanhada de datasets que expressem o entendimento humano sobre as estruturas gramaticais de interesse, para que seja possível realizar a comparação dos resultados com o real
discernimento humano. Esses datasets são recursos escassos, que requerem esforço humano para sua produção. Atualmente, a tarefa de NER vem sendo abordada com sucesso por meio de redes neurais artificiais, que requerem conjuntos de dados anotados tanto para avaliação quanto para treino. A proposta deste trabalho é desenvolver um dataset de grandes dimensões para a tarefa de NER em português de maneira automatizada, minimizando a necessidade de intervenção humana. Utilizamos recursos públicos como fonte de dados, nominalmente o DBpedia e Wikipédia. Desenvolvemos uma metodologia para a construção do corpus e realizamos experimentos sobre o mesmo utilizando arquiteturas de redes neurais de melhores performances reportadas atualmente. Exploramos diversas modelos de redes neurais, explorando diversos valores de hiperparâmetros e propondo arquiteturas com o foco específico de incorporar fontes de dados diferentes para treino. / [en] The production and access of huge amounts of data is a pervasive element of the Information Age. The volume of availiable data is without precedents in human history and it s in constant expansion. An oportunity that emerges in this context is the development and usage of applicationos that are capable structuring the knowledge of data. In this context fits the Natural Language Processing, being able to extract information efficiently from textual data. A fundamental step for this goal is the task of Named Entity Recognition (NER) which delimits and categorizes the mentions to entities. The development o systems for NLP tasks must be accompanied by datasets produced by humans in order to compare the system with the human discerniment for the NLP task at hand. These datasets are a scarse resource which the construction is costly in terms of human supervision. Recentlly, the NER task has been approached using artificial network models which needs datsets for both training and evaluation. In this work we propose the construction of a datasets for portuguese NER with an automatic approach using public data sources structured according to the principles of SemanticWeb, namely, DBpedia and Wikipédia. A metodology for the construction of this dataset was developed and experiments were performed using both the built dataset and the neural network architectures with the best reported results. Many setups for the experiments were evaluated, we obtained preliminary results for diverse hiperparameters
values, also proposing architectures with the specific focus of incorporating diverse data sources for training.
|
87 |
[en] POPULATION DISTRIBUTION MAPPING THROUGH THE DETECTION OF BUILDING AREAS IN GOOGLE EARTH IMAGES OF HETEROGENEOUS REGIONS USING DEEP LEARNING / [pt] MAPEAMENTO DA DISTRIBUIÇÃO POPULACIONAL ATRAVÉS DA DETECÇÃO DE ÁREAS EDIFICADAS EM IMAGENS DE REGIÕES HETEROGÊNEAS DO GOOGLE EARTH USANDO DEEP LEARNINGCASSIO FREITAS PEREIRA DE ALMEIDA 08 February 2018 (has links)
[pt] Informações precisas sobre a distribuição da população são reconhecidamente importantes. A fonte de informação mais completa sobre a população é o censo, cujos os dados são disponibilizados de forma
agregada em setores censitários. Esses setores são unidades operacionais de tamanho e formas irregulares, que dificulta a análise espacial dos dados associados. Assim, a mudança de setores censitários para um conjunto de células regulares com estimativas adequadas facilitaria a análise. Uma metodologia a ser utilizada para essa mudança poderia ser baseada na classificação de imagens de sensoriamento remoto para a identificação de domicílios, que é a base das pesquisas envolvendo a população. A detecção de áreas edificadas é uma tarefa complexa devido a grande variabilidade de características de construção e de imagens. Os métodos usuais são complexos e muito dependentes de especialistas. Os processos automáticos dependem de grandes bases de imagens para treinamento e são sensíveis à variação de qualidade de imagens e características das construções e de ambiente. Nesta tese propomos a utilização de um método automatizado para detecção de edificações em imagens Google Earth que mostrou bons
resultados utilizando um conjunto de imagens relativamente pequeno e com grande variabilidade, superando as limitações dos processos existentes. Este resultado foi obtido com uma aplicação prática. Foi construído um conjunto de imagens com anotação de áreas construídas para 12 regiões do Brasil. Estas imagens, além de diferentes na qualidade, apresentam grande variabilidade nas características das edificações e no ambiente geográfico. Uma prova de conceito será feita na utilização da classificação de área construída nos métodos dasimétrico para a estimação de população em gride. Ela mostrou um resultado promissor quando comparado com o método usual, possibilitando a melhoria da qualidade das estimativas. / [en] The importance of precise information about the population distribution is widely acknowledged. The census is considered the most reliable and complete source of this information, and its data are delivered
in an aggregated form in sectors. These sectors are operational units with irregular shapes, which hinder the spatial analysis of the data. Thus, the transformation of sectors onto a regular grid would facilitate such analysis. A methodology to achieve this transformation could be based on remote sensing image classification to identify building where the population lives. The building detection is considered a complex task since there is a great variability of building characteristics and on the images quality themselves. The majority of methods are complex and very specialist dependent. The automatic methods require a large annotated dataset for training and they are sensitive to the image quality, to the building characteristics, and to the environment. In this thesis, we propose an automatic method for building detection based on a deep learning architecture that uses a relative small dataset with a large variability. The proposed method shows good results when compared to the state of the art. An annotated dataset has been built that covers 12 cities distributed in different regions of Brazil. Such images not only have different qualities, but also shows a large variability on the building characteristics and geographic environments. A very important application of this method is the use of the building area classification in the dasimetric methods for the population estimation into grid. The concept proof in this application showed a promising result when compared to the usual method allowing the improvement of the quality of the estimates.
|
88 |
[en] THE BOOSTING AT START ALGORITHM AND ITS APPLICATIONS / [pt] O ALGORITMO BOOSTING AT START E SUAS APLICACOESJULIO CESAR DUARTE 15 September 2017 (has links)
[pt] Boosting é uma técnica de aprendizado de máquina que combina diversos classificadores fracos com o objetivo de melhorar a acurácia geral. Em cada iteração, o algoritmo atualiza os pesos dos exemplos e constrói um classificador adicional. Um esquema simples de votação é utilizado para combinar os classificadores. O algoritmo mais famoso baseado em Boosting é o AdaBoost. Este algoritmo aumenta os pesos dos exemplos em que os classificadores anteriores cometeram erros. Assim, foca o classificador adicional nos exemplos mais difíceis. Inicialmente, uma distribuição uniforme de pesos é atribúda aos exemplos. Entretanto, não existe garantia que essa seja a melhor escolha para a distribuição inicial. Neste trabalho, apresentamos o Boosting at Start (BAS), uma nova abordagem de aprendizado de máquina baseada em Boosting. O BAS generaliza o AdaBoost permitindo a utilização de uma distribuição inicial arbitrária. Também apresentamos esquemas para determinação de tal distribuição. Além disso, mostramos como adaptar o BAS para esquemas de Aprendizado Semi-supervisionado. Adicionalmente, descrevemos a aplicação do BAS em diferentes problemas de classificação de dados e de texto, comparando o seu desempenho com o algoritmo AdaBoost original e alguns algoritmos do estado-da-arte para tais tarefas. Os resultados experimentais indicam que uma modelagem simples usando o algoritmo BAS gera classificadores eficazes. / [en] Boosting is a Machine Learning technique that combines several weak classifers with the goal of improving the overall accuracy. In each iteration, the algorithm updates the example weights and builds an additional classifer. A simple voting scheme is used to combine the classifers. The most famous Boosting-based algorithm is AdaBoost. This algorithm increases the weights of the examples that were misclassifed by the previous classifers. Thus, it focuses the additional classifer on the hardest examples. Initially,
an uniform weight distribution is assigned to the examples. However, there is no guarantee that this is the best choice for the initial distribution. In this work, we present Boosting at Start (BAS), a new Machine Learning approach based on Boosting. BAS generalizes AdaBoost by allowing the use of an arbitrary initial distribution. We present schemes for the determination of such distribution. We also show how to adapt BAS to Semi-supervised learning schemes. Additionally, we describe the application of BAS in different problems of data and text classifcation, comparing its performance with the original AdaBoost algorithm and some state-of-the-art algorithms for such tasks. The experimental results indicate that a simple modelling using the BAS algorithm generates effective classifers.
|
89 |
[en] ASSESSEMENT OF MODELS BASED ON ARTIFICIAL NEURAL NETWORKS FOR PERFORMANCE ANALYSIS OF ENGINES AND GENERATORS / [pt] AVALIAÇÃO DE MODELOS BASEADOS EM REDES NEURAIS ARTIFICIAIS PARA ANÁLISE DE DESEMPENHO DE MOTORES E GERADORESNAIARA RINCO DE MARQUES E CARMO 09 August 2022 (has links)
[pt] Diante da crise ambiental dos dias atuais, desenvolver tecnologias de
menor impacto negativo e promover ações de eficiência energética tornam-se
imprescindíveis para conciliar produtividade e redução de emissões. Neste contexto, aprofundar-se no estudo de motores de combustão interna modelando
seu funcionamento se apresenta como uma ferramenta bastante interessante,
seja por ensaios em bancada ou modelagens. O presente trabalho buscou desenvolver modelos usando diferentes arquiteturas de Redes Neurais Artificiais
(RNAs) para obter parâmetros de performance de Motores de Combustão Interna movidos a gás natural e a misturas de diesel – biodiesel – etanol. Para
o primeiro caso, foram coletados dados de 5 motores visando a avaliação da
eficiência térmica, consumo específico, temperatura de exaustão, e para o segundo a base de dados contempla um motor, sobre o qual foram avaliados, em
acréscimo aos parâmetros mencionados, os coeficientes de compressão e expansão da politrópica, o consumo específico de etanol, a taxa máxima de liberação
de calor e a pressão máxima. Para as redes que apresentaram melhores resultados, foram construídas superfícies de resposta a fim de analisar os modelos
sobre a perspectiva do fenômeno que representam. Foi possível obter modelos
com boa representatividade dos parâmetros mencionados (obtendo valores de
R2 acima de 70 por cento para dados de treino e teste), exceto para os dois coeficientes
da politrópica. Neste caso, embora os erros fossem relativamente satisfatórios,
as superfícies de resposta atingiram extremos que não condizem com a teoria
relacionada. Por outro lado, foi possível construir um modelo para a eficiência
térmica a partir do consumo e abertura da válvula, com R2 de 99 por cento para treino
e teste. Isto se explica pelo fato de que a primeira variável de entrada é parte
da equação que calcula o parâmetro em questão, e a segunda está ligada à
relação ar-combustível da mistura. / [en] Faced with the current environmental crisis, developing technologies with
less negative impact and promoting energy efficiency actions are essential to
reconcile productivity and emissions reduction. In this context, the study of internal combustion engines by modeling their operation presents itself as a very
interesting tool, whether by bench tests or modeling. The present work aimed
to develop models using different architectures of Artificial Neural Networks
(ANNs) to obtain performance parameters of Internal Combustion Engines
powered by natural gas and blends of diesel – biodiesel – ethanol. For the
first case, 5 engines were considered to evaluate the thermal efficiency, specific consumption, exhaust temperature, and for the second case, the database
includes an engine, on which, in addition to the mentioned parameters, the
compression and expansion polytropic coefficients were evaluated, the specific
consumption of ethanol, the maximum rate of heat release and the maximum
pressure. For the networks that presented better results, response surfaces were
made in order to analyze the models from the perspective of the phenomenon
they represent. It was possible to obtain models with good representation of
the mentioned parameters (obtaining R2 values above 70 percent for training and
test data), except for the two polytropic coefficients. In this case, although the
errors were relatively satisfactory, the response surfaces reached extremes that
do not agree with the related theory. On the other hand, it was possible to
build a model for thermal efficiency from consumption and throttle, with R2 of
99 percent for training and testing. This is explained by the fact that the first input
variable is part of the equation that calculates this parameter, and the second
is linked to the air-fuel ratio of the mixture.
|
90 |
[pt] APRENDIZADO ESTRUTURADO COM INDUÇÃO E SELEÇÃO INCREMENTAIS DE ATRIBUTOS PARA ANÁLISE DE DEPENDÊNCIA EM PORTUGUÊS / [en] STRUCTURED LEARNING WITH INCREMENTAL FEATURE INDUCTION AND SELECTION FOR PORTUGUESE DEPENDENCY PARSINGYANELY MILANES BARROSO 09 November 2016 (has links)
[pt] O processamento de linguagem natural busca resolver várias tarefas de complexidade crescente que envolvem o aprendizado de estruturas complexas, como grafos e sequências, para um determinado texto. Por exemplo, a análise de dependência envolve o aprendizado de uma árvore que descreve a estrutura sintática de uma sentença dada. Um método amplamente utilizado para melhorar a representação do conhecimento de domínio em esta tarefa é considerar combinações de atributos usando conjunções lógicas que codificam informação útil com um padrão não-linear. O número total de todas as combinações possíveis para uma conjunção dada cresce exponencialmente no número de atributos e pode resultar em intratabilidade computacional. Também, pode levar a overfitting. Neste cenário, uma técnica para evitar o superajuste e reduzir o conjunto de atributos faz-se necessário. Uma abordagem comum para esta tarefa baseia-se em atribuir uma pontuação a uma árvore de dependência, usando uma função linear do conjunto de atributos. Sabe-se que os modelos lineares esparsos resolvem simultaneamente o problema de seleção de atributos e a estimativa de um modelo linear, através da combinação de um pequeno conjunto de atributos. Neste caso, promover a esparsidade ajuda no controle do superajuste e na compactação do conjunto de atributos. Devido a sua exibilidade, robustez e simplicidade, o algoritmo de perceptron é um método linear discriminante amplamente usado que pode ser modificado para produzir modelos esparsos e para lidar com atributos não-lineares. Propomos a aprendizagem incremental da combinação de um modelo linear esparso com um procedimento de indução de variáveis não-lineares, num cénario de predição estruturada. O modelo linear esparso é obtido através de uma modificação do algoritmo perceptron. O método de indução é Entropy-Guided Feature Generation. A avaliação empírica é realizada usando o conjunto de dados para português da CoNLL 2006 Shared Task. O analisador resultante alcança 92,98 por cento de precisão, que é um desempenho competitivo quando comparado com os sistemas de estado- da-arte. Em sua versão regularizada, o analizador alcança uma precisão de 92,83 por cento , também mostra uma redução notável de 96,17 por cento do número de atributos binários e, reduz o tempo de aprendizagem em quase 90 por cento, quando comparado com a sua versão não regularizada. / [en] Natural language processing requires solving several tasks of increasing
complexity, which involve learning to associate structures like graphs and
sequences to a given text. For instance, dependency parsing involves learning
of a tree that describes the dependency-based syntactic structure of a
given sentence. A widely used method to improve domain knowledge
representation in this task is to consider combinations of features, called
templates, which are used to encode useful information with nonlinear
pattern. The total number of all possible feature combinations for a given
template grows exponentialy in the number of features and can result in
computational intractability. Also, from an statistical point of view, it can
lead to overfitting. In this scenario, it is required a technique that avoids
overfitting and that reduces the feature set. A very common approach to
solve this task is based on scoring a parse tree, using a linear function
of a defined set of features. It is well known that sparse linear models
simultaneously address the feature selection problem and the estimation
of a linear model, by combining a small subset of available features. In
this case, sparseness helps control overfitting and performs the selection
of the most informative features, which reduces the feature set. Due to
its
exibility, robustness and simplicity, the perceptron algorithm is one of
the most popular linear discriminant methods used to learn such complex
representations. This algorithm can be modified to produce sparse models
and to handle nonlinear features. We propose the incremental learning of
the combination of a sparse linear model with an induction procedure of
non-linear variables in a structured prediction scenario. The sparse linear
model is obtained through a modifications of the perceptron algorithm. The
induction method is the Entropy-Guided Feature Generation. The empirical
evaluation is performed using the Portuguese Dependency Parsing data set
from the CoNLL 2006 Shared Task. The resulting parser attains 92.98 per cent of
accuracy, which is a competitive performance when compared against the
state-of-art systems. On its regularized version, it accomplishes an accuracy
of 92.83 per cent, shows a striking reduction of 96.17 per cent in the number of binary
features and reduces the learning time in almost 90 per cent, when compared to
its non regularized version.
|
Page generated in 0.1039 seconds