• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 53
  • Tagged with
  • 106
  • 106
  • 105
  • 105
  • 102
  • 18
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • 12
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

[pt] A EFICÁCIA DA OTIMIZAÇÃO DE DOIS NÍVEIS EM PROBLEMAS DE SISTEMAS DE POTÊNCIA DE GRANDE PORTE: UMA FERRAMENTA PARA OTIMIZAÇÃO DE DOIS NÍVEIS, UMA METODOLOGIA PARA APRENDIZADO DIRIGIDO PELA APLICAÇÃO E UM SIMULADOR DE MERCADO / [en] THE EFFECTIVENESS OF BILEVEL OPTIMIZATION IN LARGE-SCALE POWER SYSTEMS PROBLEMS: A BILEVEL OPTIMIZATION TOOLBOX, A FRAMEWORK FOR APPLICATION-DRIVEN LEARNING, AND A MARKET SIMULATOR

JOAQUIM MASSET LACOMBE DIAS GARCIA 25 January 2023 (has links)
[pt] A otimização de binível é uma ferramenta extremamente poderosa para modelar problemas realistas em várias áreas. Por outro lado, sabe-se que a otimização de dois níveis frequentemente leva a problemas complexos ou intratáveis. Nesta tese, apresentamos três trabalhos que expandem o estado da arte da otimização de dois níveis e sua interseção com sistemas de potência. Primeiro, apresentamos BilevelJuMP, um novo pacote de código aberto para otimização de dois níveis na linguagem Julia. O pacote é uma extensão da linguagem de modelagem de programação matemática JuMP, é muito geral, completo e apresenta funcionalidades únicas, como a modelagem de programas cônicos no nível inferior. O software permite aos usuários modelar diversos problemas de dois níveis e resolvê-los com técnicas avançadas. Como consequência, torna a otimização de dois níveis amplamente acessível a um público muito mais amplo. Nos dois trabalhos seguintes, desenvolvemos métodos especializados para lidar com modelos complexos e programas de dois níveis de grande escala decorrentes de aplicações de sistemas de potência. Em segundo lugar, usamos a programação de dois níveis como base para desenvolver o Aprendizado Dirigido pela Aplicação, uma nova estrutura de ciclo fechado na qual os processos de previsão e tomada de decisão são mesclados e co-otimizados. Descrevemos o modelo matematicamente como um programa de dois níveis, provamos resultados de convergência e descrevemos métodos de solução heurísticos e exatos para lidar com sistemas de grande escala. O método é aplicado para previsão de demanda e alocação de reservas na operação de sistemas de potência. Estudos de caso mostram resultados muito promissores com soluções de boa qualidade em sistemas realistas com milhares de barras. Em terceiro lugar, propomos um simulador para modelar mercados de energia hidrotérmica de longo prazo baseados em ofertas. Um problema de otimização estocástica multi-estágio é formulado para acomodar a dinâmica inerente aos sistemas hidrelétricos. No entanto, os subproblemas de cada etapa são programas de dois níveis para modelar agentes estratégicos. O simulador é escalável em termos de dados do sistema, agentes, cenários e estágios considerados. Concluímos o terceiro trabalho com simulações em grande porte com dados realistas do sistema elétrico brasileiro com 3 agentes formadores de preço, 1000 cenários e 60 estágios mensais. Esses três trabalhos mostram que, embora a otimização de dois níveis seja uma classe extremamente desafiadora de problemas NP-difíceis, é possível desenvolver algoritmos eficazes que levam a soluções de boa qualidade. / [en] Bilevel Optimization is an extremely powerful tool for modeling realistic problems in multiple areas. On the other hand, Bilevel Optimization is known to frequently lead to complex or intractable problems. In this thesis, we present three works expanding the state of the art of bilevel optimization and its intersection with power systems. First, we present BilevelJuMP, a novel open-source package for bilevel optimization in the Julia language. The package is an extension of the JuMP mathematical programming modeling language, is very general, feature-complete, and presents unique functionality, such as the modeling of lower-level cone programs. The software enables users to model a variety of bilevel problems and solve them with advanced techniques. As a consequence, it makes bilevel optimization widely accessible to a much broader public. In the following two works, we develop specialized methods to handle much model complex and very large-scale bilevel programs arising from power systems applications. Second, we use bilevel programming as the foundation to develop Application-Driven Learning, a new closed-loop framework in which the processes of forecasting and decision-making are merged and co-optimized. We describe the model mathematically as a bilevel program, prove convergence results and describe exact and tailor-made heuristic solution methods to handle very large-scale systems. The method is applied to demand forecast and reserve allocation in power systems operation. Case studies show very promising results with good quality solutions on realistic systems with thousands of buses. Third, we propose a simulator to model long-term bid-based hydro-thermal power markets. A multi-stage stochastic program is formulated to accommodate the dynamics inherent to hydropower systems. However, the subproblems of each stage are bilevel programs in order to model strategic agents. The simulator is scalable in terms of system data, agents, scenarios, and stages being considered. We conclude the third work with large-scale simulations with realistic data from the Brazilian power system with 3 price maker agents, 1000 scenarios, and 60 monthly stages. These three works show that although bilevel optimization is an extremely challenging class of NP-hard problems, it is possible to develop effective algorithms that lead to good-quality solutions.
82

[en] REAL TIME EMOTION RECOGNITION BASED ON IMAGES USING ASM AND SVM / [pt] RECONHECIMENTO DE EMOÇÕES ATRAVÉS DE IMAGENS EM TEMPO REAL COM O USO DE ASM E SVM

GUILHERME CARVALHO CUNHA 09 July 2014 (has links)
[pt] As expressões faciais transmitem muita informação sobre um indivíduo, tornando a capacidade de interpretá-las uma tarefa muito importante, com aplicações em diversas áreas, tais como Interação Homem Máquina, Jogos Digitais, storytelling interativo e TV/Cinema digital. Esta dissertação discute o processo de reconhecimento de emoções em tempo real usando ASM (Active Shape Model) e SVM (Support Vector Machine) e apresenta uma comparação entre duas formas comumente utilizadas na etapa de extração de atributos: faces neutra e média. Como não existe tal comparação na literatura, os resultados apresentados são valiosos para o desenvolvimento de aplicações envolvendo expressões de emoção em tempo real. O presente trabalho considera seis tipos de emoções: felicidade, tristeza, raiva, medo, surpresa e desgosto. / [en] The facial expressions provide a high amount of information about a person, making the ability to interpret them a high valued task that can be used in several fields of Informatics such as Human Machine Interface, Digital Games, interactive storytelling and digital TV/Cinema. This dissertation discusses the process of recognizing emotions in real time using ASM (Active Shape Model) and SVM (Support Vector Machine) and presents a comparison between two commonly used ways when extracting the attributes: neutral face and average. As such comparison can not be found in the literature, the results presented are valuable to the development of applications that deal with emotion expression in real time. The current study considers six types of emotions: happiness, sadness, anger, fear, surprise and disgust.
83

[en] A NEURAL NETWORK FOR ONLINE PORTFOLIO SELECTION WITH SIDE INFORMATION / [pt] UMA REDE NEURAL PARA O PROBLEMA DE SELEÇÃO ONLINE DE PORTFÓLIO COM INFORMAÇÃO LATERAL

GUILHERME AUGUSTO SCHUTZ 15 January 2019 (has links)
[pt] O mercado financeiro é essencial na economia, trazendo estabilidade, acesso a novos tipos de investimentos, e aumentando a capacidade das empresas no acesso ao crédito. A constante busca por reduzir o papel de especialistas humanos na tomada de decisão, visa reduzir o risco inerente as emoções intrínsecas do ser humano, do qual a máquina não compartilha. Como consequência, reduzindo efeitos especulativos no mercado, e aumentando a precisão nas decisões tomadas. Neste trabalho é discutido o problema de seleção de portfólios online, onde um vetor de alocações de ativos é requerido em cada passo. O algoritmo proposto é o multilayer perceptron with side information - MLPi. Este algoritmo utiliza redes neurais para a solução do problema quando o investidor tem acesso a informações futuras sobre o preço dos ativos. Para avaliar o uso da informação lateral na seleção de portfolio, testamos empiricamente o MLPi em contraste com dois algoritmos, um baseline e o estado-da-arte. Como baseline é utilizado o buy-and-hold. O estado-da-arte é o algoritmo online moving average mean reversion proposto por Li e Hoi (2012). Para avaliar a utilização de informação lateral no algoritmo MLPi é definido um benchmark baseado numa solução ótima simples utilizando a informação lateral, mas sem considerar a acurácia da informação futura. Para os experimentos, utilizamos informações a nível de minuto do mercado de ações brasileiro, operados na bolsa de valores B3. É simulado um preditor de preço com 7 níveis de acurácia diferentes para 200 portfólios. Os resultados apontam que tanto o benchmark quanto o MLPi superam os dois algoritmos selecionados, para níveis de acurácia de um ativo maiores que 50 por cento, e na média, o MLPi supera o benchmark em todos os níveis de acurácia simulados. / [en] The financial market is essential in the economy, bringing stability, access to new types of investments, and increasing the ability of companies to access credit. The constant search for reducing the role of human specialists in decision making aims to reduce the risk inherent in the intrinsic emotions of the human being, which the machine does not share. As a consequence, reducing speculative effects in the market, and increasing the precision in the decisions taken. In this paper, we discuss the problem of selecting portfolios online, where a vector of asset allocations is required in each step. The proposed algorithm is the multilayer perceptron with side information - MLPi. This algorithm uses neural networks to solve the problem when the investor has access to future information on the price of the assets. To evaluate the use of side information in portfolio selection, we empirically tested MLPi in contrast to two algorithms, a baseline and the state-of-the-art. As a baseline, buy-andhold is used. The state-of-the-art is the online moving average mean reversion algorithm proposed by Li and Hoi (2012). To evaluate the use of side information in the algorithm MLPi a benchmark based on a simple optimal solution using the side information is defined, but without considering the accuracy of the future information. For the experiments, we use minute-level information from the Brazilian stock market, traded on the B3 stock exchange. A price predictor is simulated with 7 different accuracy levels for 200 portfolios. The results show that both the benchmark and MLPi outperform the two algorithms selected, for asset accuracy levels greater than 50 percent, and on average, MLPi outperforms the benchmark at all levels of simulated accuracy.
84

[en] QUOTATION EXTRACTION FOR PORTUGUESE / [pt] EXTRAÇÃO DE CITAÇÕES PARA O PORTUGUÊS

WILLIAM PAULO DUCCA FERNANDES 24 January 2017 (has links)
[pt] A Extração de Citações consiste na identificação de citações de um texto e na associação destas com seus autores. Neste trabalho, apresentamos um sistema de Extração de Citações para Português. A tarefa de Extração de Citações já foi abordada usando diversas técnicas e para diversas línguas.Nossa proposta é diferente dos trabalhos anteriores, pois usamos Aprendizado de Máquina para construir automaticamente regras especializadas ao invés de regras criadas por humanos. Modelos de Aprendizado de Máquina geralmente apresentam forte capacidade de generalização comparados a modelos feitos por humanos. Além disso, nós podemos facilmente adaptar nosso modelo para outras línguas, precisando apenas de uma lista de verbos de citação para uma dada língua. Os sistemas propostos anteriormente provavelmente precisariam de uma adaptação no conjunto de regras de forma a classificar corretamente as citações, o que consumiria tempo. Nós atacamos a tarefa de Extração de Citações usando um modelo para o algoritmo de Aprendizado de Transformações Guiado por Entropia e um modelo para o algoritmo do Perceptron Estruturado. Com o objetivo de treinar e avaliar o sistema, nós construímos o corpus GloboQuotes com notícias extraídas do portal globo.com. Adicionamos etiquetas morfossintáticas ao corpus, utilizando um anotador estado da arte. O Perceptron Estruturado baseado no agendamento de tarefas ponderado tem desempenho F sub Beta igual a 1 igual a 76,80 por cento. / [en] Quotation Extraction consists of identifying quotations from a text and associating them to their authors. In this work, we present a Quotation Extraction system for Portuguese. Quotation Extraction has been previously approached using different techniques and for several languages. Our proposal differs from previous work since we use Machine Learning to automatically build specialized rules instead of human-derived rules. Machine Learning models usually present stronger generalization power compared to human-derived models. In addition, we are able to easily adapt our model to other languages, needing only a list of verbs of speech for a given language. The previously proposed systems would probably need a rule set adaptation to correctly classify the quotations, which would be time consuming. We tackle the Quotation Extraction task using one model for the Entropy Guided Transformation Learning algorithm and another one for the Structured Perceptron algorithm. In order to train and evaluate the system, we have build the GloboQuotes corpus, with news extracted from the globo.com portal. We add part-of-speech tags to the corpus using a state-of-the-art tagger. The Structured Perceptron based on weighted interval scheduling obtains an F sub Beta equal 1 score of 76.80 per cent.
85

[en] A SYSTEM FOR STOCK MARKET FORECASTING AND SIMULATION / [pt] UM SISTEMA PARA PREDIÇÃO E SIMULAÇÃO DO MERCADO DE CAPITAIS

PAULO DE TARSO GOMIDE CASTRO SILVA 02 February 2017 (has links)
[pt] Nos últimos anos, vem crescendo o interesse acerca da predição do comportamento do mercado de capitais, tanto por parte dos investidores quanto dos pesquisadores. Apesar do grande número de publicações tratando esse problema, predizer com eficiência futuras tendências e desenvolver estratégias de negociação capazes de traduzir boas predições em lucros são ainda grandes desafios. A dificuldade em realizar tais tarefas se deve tanto à não linearidade e grande volume de ruídos presentes nos dados do mercado, quanto à falta de sistemas que possam avaliar com propriedade a qualidade das predições realizadas. Nesse trabalho, são realizadas predições de séries temporais visando auxiliar o investidor tanto em operações de compra e venda, como em Pairs Trading. Além disso, as predições são feitas considerando duas diferentes periodicidades. Uma predição interday, que considera apenas dados diários e tem como objetivo a predição de valores referentes ao presente dia. E uma predição intraday, que visa predizer valores referentes a cada hora de negociação do dia atual e para isso considera também os dados intraday conhecidos até o momento que se deseja prever. Para ambas as tarefas propostas, foram testadas três ferramentas de predição, quais sejam, Regressão por Mínimos Quadrados Parciais, Regressão por Vetores de Suporte e Redes Neurais Artificiais. Com o intuito de melhor avaliar a qualidade das predições realizadas, é proposto ainda um trading system. Os testes foram realizados considerando ativos das companhias mais negociadas da BM e FBOVESPA, a bolsa de valores oficial do Brasil e terceira maior do mundo. Os resultados dos três preditores são apresentados e comparados a quatro benchmarks, bem como com a solução ótima. A diferença na qualidade de predição, considerando o erro de predição ou as métricas do trading system, são notáveis. Se quando analisado apenas o Erro Percentual Absoluto Médio os preditores propostos não mostram uma melhora significativa, quando as métricas do trading system são consideradas eles apresentam um resultado bem superior. O retorno anual do investimento em alguns casos atinge valor superior a 300 por cento. / [en] The interest of both investors and researchers in stock market behavior forecasting has increased throughout the recent years. Despite the wide number of publications examining this problem, accurately predicting future stock trends and developing business strategies capable of turning good predictions into profits are still great challenges. This is partly due to the nonlinearity and noise inherent to the stock market data source, and partly because benchmarking systems to assess the forecasting quality are not publicly available. Here, we perform time series forecasting aiming to guide the investor both into Pairs Trading and buy and sell operations. Furthermore, we explore two different forecasting periodicities. First, an interday forecast, which considers only daily data and whose goal is predict values referring to the current day. And second, the intraday approach, which aims to predict values referring to each trading hour of the current day and also takes advantage of the intraday data already known at prediction time. In both forecasting schemes, we use three regression tools as predictor algorithms, which are: Partial Least Squares Regression, Support Vector Regression and Artificial Neural Networks. We also propose a trading system as a better way to assess the forecasting quality. In the experiments, we examine assets of the most traded companies in the BM and FBOVESPA Stock Exchange, the world s third largest and official Brazilian Stock Exchange. The results for the three predictors are presented and compared to four benchmarks, as well as to the optimal solution. The difference in the forecasting quality, when considering either the forecasting error metrics or the trading system metrics, is remarkable. If we consider just the mean absolute percentage error, the proposed predictors do not show a significant superiority. Nevertheless, when considering the trading system evaluation, it shows really outstanding results. The yield in some cases amounts to an annual return on investment of more than 300 per cent.
86

[en] NAMED ENTITY RECOGNITION FOR PORTUGUESE / [pt] RECONHECIMENTO DE ENTIDADES MENCIONADAS PARA O PORTUGUÊS

DANIEL SPECHT SILVA MENEZES 13 December 2018 (has links)
[pt] A produção e acesso a quantidades imensas dados é um elemento pervasivo da era da informação. O volume de informação disponível é sem precedentes na história da humanidade e está sobre constante processo de expansão. Uma oportunidade que emerge neste ambiente é o desenvolvimento de aplicações que sejam capazes de estruturar conhecimento contido nesses dados. Neste contexto se encaixa a área de Processamento de Linguagem Natural (PLN) - Natural Language Processing (NLP) - , ser capaz de extrair informações estruturadas de maneira eficiente de fontes textuais. Um passo fundamental para esse fim é a tarefa de Reconhecimento de Entidades Mencionadas (ou nomeadas) - Named Entity Recognition (NER) - que consistem em delimitar e categorizar menções a entidades num texto. A construção de sistemas para NLP deve ser acompanhada de datasets que expressem o entendimento humano sobre as estruturas gramaticais de interesse, para que seja possível realizar a comparação dos resultados com o real discernimento humano. Esses datasets são recursos escassos, que requerem esforço humano para sua produção. Atualmente, a tarefa de NER vem sendo abordada com sucesso por meio de redes neurais artificiais, que requerem conjuntos de dados anotados tanto para avaliação quanto para treino. A proposta deste trabalho é desenvolver um dataset de grandes dimensões para a tarefa de NER em português de maneira automatizada, minimizando a necessidade de intervenção humana. Utilizamos recursos públicos como fonte de dados, nominalmente o DBpedia e Wikipédia. Desenvolvemos uma metodologia para a construção do corpus e realizamos experimentos sobre o mesmo utilizando arquiteturas de redes neurais de melhores performances reportadas atualmente. Exploramos diversas modelos de redes neurais, explorando diversos valores de hiperparâmetros e propondo arquiteturas com o foco específico de incorporar fontes de dados diferentes para treino. / [en] The production and access of huge amounts of data is a pervasive element of the Information Age. The volume of availiable data is without precedents in human history and it s in constant expansion. An oportunity that emerges in this context is the development and usage of applicationos that are capable structuring the knowledge of data. In this context fits the Natural Language Processing, being able to extract information efficiently from textual data. A fundamental step for this goal is the task of Named Entity Recognition (NER) which delimits and categorizes the mentions to entities. The development o systems for NLP tasks must be accompanied by datasets produced by humans in order to compare the system with the human discerniment for the NLP task at hand. These datasets are a scarse resource which the construction is costly in terms of human supervision. Recentlly, the NER task has been approached using artificial network models which needs datsets for both training and evaluation. In this work we propose the construction of a datasets for portuguese NER with an automatic approach using public data sources structured according to the principles of SemanticWeb, namely, DBpedia and Wikipédia. A metodology for the construction of this dataset was developed and experiments were performed using both the built dataset and the neural network architectures with the best reported results. Many setups for the experiments were evaluated, we obtained preliminary results for diverse hiperparameters values, also proposing architectures with the specific focus of incorporating diverse data sources for training.
87

[en] POPULATION DISTRIBUTION MAPPING THROUGH THE DETECTION OF BUILDING AREAS IN GOOGLE EARTH IMAGES OF HETEROGENEOUS REGIONS USING DEEP LEARNING / [pt] MAPEAMENTO DA DISTRIBUIÇÃO POPULACIONAL ATRAVÉS DA DETECÇÃO DE ÁREAS EDIFICADAS EM IMAGENS DE REGIÕES HETEROGÊNEAS DO GOOGLE EARTH USANDO DEEP LEARNING

CASSIO FREITAS PEREIRA DE ALMEIDA 08 February 2018 (has links)
[pt] Informações precisas sobre a distribuição da população são reconhecidamente importantes. A fonte de informação mais completa sobre a população é o censo, cujos os dados são disponibilizados de forma agregada em setores censitários. Esses setores são unidades operacionais de tamanho e formas irregulares, que dificulta a análise espacial dos dados associados. Assim, a mudança de setores censitários para um conjunto de células regulares com estimativas adequadas facilitaria a análise. Uma metodologia a ser utilizada para essa mudança poderia ser baseada na classificação de imagens de sensoriamento remoto para a identificação de domicílios, que é a base das pesquisas envolvendo a população. A detecção de áreas edificadas é uma tarefa complexa devido a grande variabilidade de características de construção e de imagens. Os métodos usuais são complexos e muito dependentes de especialistas. Os processos automáticos dependem de grandes bases de imagens para treinamento e são sensíveis à variação de qualidade de imagens e características das construções e de ambiente. Nesta tese propomos a utilização de um método automatizado para detecção de edificações em imagens Google Earth que mostrou bons resultados utilizando um conjunto de imagens relativamente pequeno e com grande variabilidade, superando as limitações dos processos existentes. Este resultado foi obtido com uma aplicação prática. Foi construído um conjunto de imagens com anotação de áreas construídas para 12 regiões do Brasil. Estas imagens, além de diferentes na qualidade, apresentam grande variabilidade nas características das edificações e no ambiente geográfico. Uma prova de conceito será feita na utilização da classificação de área construída nos métodos dasimétrico para a estimação de população em gride. Ela mostrou um resultado promissor quando comparado com o método usual, possibilitando a melhoria da qualidade das estimativas. / [en] The importance of precise information about the population distribution is widely acknowledged. The census is considered the most reliable and complete source of this information, and its data are delivered in an aggregated form in sectors. These sectors are operational units with irregular shapes, which hinder the spatial analysis of the data. Thus, the transformation of sectors onto a regular grid would facilitate such analysis. A methodology to achieve this transformation could be based on remote sensing image classification to identify building where the population lives. The building detection is considered a complex task since there is a great variability of building characteristics and on the images quality themselves. The majority of methods are complex and very specialist dependent. The automatic methods require a large annotated dataset for training and they are sensitive to the image quality, to the building characteristics, and to the environment. In this thesis, we propose an automatic method for building detection based on a deep learning architecture that uses a relative small dataset with a large variability. The proposed method shows good results when compared to the state of the art. An annotated dataset has been built that covers 12 cities distributed in different regions of Brazil. Such images not only have different qualities, but also shows a large variability on the building characteristics and geographic environments. A very important application of this method is the use of the building area classification in the dasimetric methods for the population estimation into grid. The concept proof in this application showed a promising result when compared to the usual method allowing the improvement of the quality of the estimates.
88

[en] THE BOOSTING AT START ALGORITHM AND ITS APPLICATIONS / [pt] O ALGORITMO BOOSTING AT START E SUAS APLICACOES

JULIO CESAR DUARTE 15 September 2017 (has links)
[pt] Boosting é uma técnica de aprendizado de máquina que combina diversos classificadores fracos com o objetivo de melhorar a acurácia geral. Em cada iteração, o algoritmo atualiza os pesos dos exemplos e constrói um classificador adicional. Um esquema simples de votação é utilizado para combinar os classificadores. O algoritmo mais famoso baseado em Boosting é o AdaBoost. Este algoritmo aumenta os pesos dos exemplos em que os classificadores anteriores cometeram erros. Assim, foca o classificador adicional nos exemplos mais difíceis. Inicialmente, uma distribuição uniforme de pesos é atribúda aos exemplos. Entretanto, não existe garantia que essa seja a melhor escolha para a distribuição inicial. Neste trabalho, apresentamos o Boosting at Start (BAS), uma nova abordagem de aprendizado de máquina baseada em Boosting. O BAS generaliza o AdaBoost permitindo a utilização de uma distribuição inicial arbitrária. Também apresentamos esquemas para determinação de tal distribuição. Além disso, mostramos como adaptar o BAS para esquemas de Aprendizado Semi-supervisionado. Adicionalmente, descrevemos a aplicação do BAS em diferentes problemas de classificação de dados e de texto, comparando o seu desempenho com o algoritmo AdaBoost original e alguns algoritmos do estado-da-arte para tais tarefas. Os resultados experimentais indicam que uma modelagem simples usando o algoritmo BAS gera classificadores eficazes. / [en] Boosting is a Machine Learning technique that combines several weak classifers with the goal of improving the overall accuracy. In each iteration, the algorithm updates the example weights and builds an additional classifer. A simple voting scheme is used to combine the classifers. The most famous Boosting-based algorithm is AdaBoost. This algorithm increases the weights of the examples that were misclassifed by the previous classifers. Thus, it focuses the additional classifer on the hardest examples. Initially, an uniform weight distribution is assigned to the examples. However, there is no guarantee that this is the best choice for the initial distribution. In this work, we present Boosting at Start (BAS), a new Machine Learning approach based on Boosting. BAS generalizes AdaBoost by allowing the use of an arbitrary initial distribution. We present schemes for the determination of such distribution. We also show how to adapt BAS to Semi-supervised learning schemes. Additionally, we describe the application of BAS in different problems of data and text classifcation, comparing its performance with the original AdaBoost algorithm and some state-of-the-art algorithms for such tasks. The experimental results indicate that a simple modelling using the BAS algorithm generates effective classifers.
89

[en] ASSESSEMENT OF MODELS BASED ON ARTIFICIAL NEURAL NETWORKS FOR PERFORMANCE ANALYSIS OF ENGINES AND GENERATORS / [pt] AVALIAÇÃO DE MODELOS BASEADOS EM REDES NEURAIS ARTIFICIAIS PARA ANÁLISE DE DESEMPENHO DE MOTORES E GERADORES

NAIARA RINCO DE MARQUES E CARMO 09 August 2022 (has links)
[pt] Diante da crise ambiental dos dias atuais, desenvolver tecnologias de menor impacto negativo e promover ações de eficiência energética tornam-se imprescindíveis para conciliar produtividade e redução de emissões. Neste contexto, aprofundar-se no estudo de motores de combustão interna modelando seu funcionamento se apresenta como uma ferramenta bastante interessante, seja por ensaios em bancada ou modelagens. O presente trabalho buscou desenvolver modelos usando diferentes arquiteturas de Redes Neurais Artificiais (RNAs) para obter parâmetros de performance de Motores de Combustão Interna movidos a gás natural e a misturas de diesel – biodiesel – etanol. Para o primeiro caso, foram coletados dados de 5 motores visando a avaliação da eficiência térmica, consumo específico, temperatura de exaustão, e para o segundo a base de dados contempla um motor, sobre o qual foram avaliados, em acréscimo aos parâmetros mencionados, os coeficientes de compressão e expansão da politrópica, o consumo específico de etanol, a taxa máxima de liberação de calor e a pressão máxima. Para as redes que apresentaram melhores resultados, foram construídas superfícies de resposta a fim de analisar os modelos sobre a perspectiva do fenômeno que representam. Foi possível obter modelos com boa representatividade dos parâmetros mencionados (obtendo valores de R2 acima de 70 por cento para dados de treino e teste), exceto para os dois coeficientes da politrópica. Neste caso, embora os erros fossem relativamente satisfatórios, as superfícies de resposta atingiram extremos que não condizem com a teoria relacionada. Por outro lado, foi possível construir um modelo para a eficiência térmica a partir do consumo e abertura da válvula, com R2 de 99 por cento para treino e teste. Isto se explica pelo fato de que a primeira variável de entrada é parte da equação que calcula o parâmetro em questão, e a segunda está ligada à relação ar-combustível da mistura. / [en] Faced with the current environmental crisis, developing technologies with less negative impact and promoting energy efficiency actions are essential to reconcile productivity and emissions reduction. In this context, the study of internal combustion engines by modeling their operation presents itself as a very interesting tool, whether by bench tests or modeling. The present work aimed to develop models using different architectures of Artificial Neural Networks (ANNs) to obtain performance parameters of Internal Combustion Engines powered by natural gas and blends of diesel – biodiesel – ethanol. For the first case, 5 engines were considered to evaluate the thermal efficiency, specific consumption, exhaust temperature, and for the second case, the database includes an engine, on which, in addition to the mentioned parameters, the compression and expansion polytropic coefficients were evaluated, the specific consumption of ethanol, the maximum rate of heat release and the maximum pressure. For the networks that presented better results, response surfaces were made in order to analyze the models from the perspective of the phenomenon they represent. It was possible to obtain models with good representation of the mentioned parameters (obtaining R2 values above 70 percent for training and test data), except for the two polytropic coefficients. In this case, although the errors were relatively satisfactory, the response surfaces reached extremes that do not agree with the related theory. On the other hand, it was possible to build a model for thermal efficiency from consumption and throttle, with R2 of 99 percent for training and testing. This is explained by the fact that the first input variable is part of the equation that calculates this parameter, and the second is linked to the air-fuel ratio of the mixture.
90

[pt] APRENDIZADO ESTRUTURADO COM INDUÇÃO E SELEÇÃO INCREMENTAIS DE ATRIBUTOS PARA ANÁLISE DE DEPENDÊNCIA EM PORTUGUÊS / [en] STRUCTURED LEARNING WITH INCREMENTAL FEATURE INDUCTION AND SELECTION FOR PORTUGUESE DEPENDENCY PARSING

YANELY MILANES BARROSO 09 November 2016 (has links)
[pt] O processamento de linguagem natural busca resolver várias tarefas de complexidade crescente que envolvem o aprendizado de estruturas complexas, como grafos e sequências, para um determinado texto. Por exemplo, a análise de dependência envolve o aprendizado de uma árvore que descreve a estrutura sintática de uma sentença dada. Um método amplamente utilizado para melhorar a representação do conhecimento de domínio em esta tarefa é considerar combinações de atributos usando conjunções lógicas que codificam informação útil com um padrão não-linear. O número total de todas as combinações possíveis para uma conjunção dada cresce exponencialmente no número de atributos e pode resultar em intratabilidade computacional. Também, pode levar a overfitting. Neste cenário, uma técnica para evitar o superajuste e reduzir o conjunto de atributos faz-se necessário. Uma abordagem comum para esta tarefa baseia-se em atribuir uma pontuação a uma árvore de dependência, usando uma função linear do conjunto de atributos. Sabe-se que os modelos lineares esparsos resolvem simultaneamente o problema de seleção de atributos e a estimativa de um modelo linear, através da combinação de um pequeno conjunto de atributos. Neste caso, promover a esparsidade ajuda no controle do superajuste e na compactação do conjunto de atributos. Devido a sua exibilidade, robustez e simplicidade, o algoritmo de perceptron é um método linear discriminante amplamente usado que pode ser modificado para produzir modelos esparsos e para lidar com atributos não-lineares. Propomos a aprendizagem incremental da combinação de um modelo linear esparso com um procedimento de indução de variáveis não-lineares, num cénario de predição estruturada. O modelo linear esparso é obtido através de uma modificação do algoritmo perceptron. O método de indução é Entropy-Guided Feature Generation. A avaliação empírica é realizada usando o conjunto de dados para português da CoNLL 2006 Shared Task. O analisador resultante alcança 92,98 por cento de precisão, que é um desempenho competitivo quando comparado com os sistemas de estado- da-arte. Em sua versão regularizada, o analizador alcança uma precisão de 92,83 por cento , também mostra uma redução notável de 96,17 por cento do número de atributos binários e, reduz o tempo de aprendizagem em quase 90 por cento, quando comparado com a sua versão não regularizada. / [en] Natural language processing requires solving several tasks of increasing complexity, which involve learning to associate structures like graphs and sequences to a given text. For instance, dependency parsing involves learning of a tree that describes the dependency-based syntactic structure of a given sentence. A widely used method to improve domain knowledge representation in this task is to consider combinations of features, called templates, which are used to encode useful information with nonlinear pattern. The total number of all possible feature combinations for a given template grows exponentialy in the number of features and can result in computational intractability. Also, from an statistical point of view, it can lead to overfitting. In this scenario, it is required a technique that avoids overfitting and that reduces the feature set. A very common approach to solve this task is based on scoring a parse tree, using a linear function of a defined set of features. It is well known that sparse linear models simultaneously address the feature selection problem and the estimation of a linear model, by combining a small subset of available features. In this case, sparseness helps control overfitting and performs the selection of the most informative features, which reduces the feature set. Due to its exibility, robustness and simplicity, the perceptron algorithm is one of the most popular linear discriminant methods used to learn such complex representations. This algorithm can be modified to produce sparse models and to handle nonlinear features. We propose the incremental learning of the combination of a sparse linear model with an induction procedure of non-linear variables in a structured prediction scenario. The sparse linear model is obtained through a modifications of the perceptron algorithm. The induction method is the Entropy-Guided Feature Generation. The empirical evaluation is performed using the Portuguese Dependency Parsing data set from the CoNLL 2006 Shared Task. The resulting parser attains 92.98 per cent of accuracy, which is a competitive performance when compared against the state-of-art systems. On its regularized version, it accomplishes an accuracy of 92.83 per cent, shows a striking reduction of 96.17 per cent in the number of binary features and reduces the learning time in almost 90 per cent, when compared to its non regularized version.

Page generated in 0.1039 seconds