• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 13
  • Tagged with
  • 82
  • 82
  • 70
  • 27
  • 21
  • 19
  • 17
  • 15
  • 15
  • 15
  • 15
  • 12
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

[en] REDUCING TEACHER-STUDENT INTERACTIONS BETWEEN TWO NEURAL NETWORKS / [pt] REDUZINDO AS INTERAÇÕES PROFESSOR-ALUNO ENTRE DUAS REDES NEURAIS

GUSTAVO MADEIRA KRIEGER 11 October 2019 (has links)
[pt] Propagação de conhecimento é um dos pilares da evolução humana. Nossas descobertas são baseadas em conhecimentos já existentes, construídas em cima deles e então se tornam a fundação para a próxima geração de aprendizado. No ramo de Inteligência Artificial, existe o interesse em replicar esse aspecto da natureza humana em máquinas. Criando um primeiro modelo e treinando ele nos dados originais, outro modelo pode ser criado e aprender a partir dele ao invés de ter que começar todo o processo do zero. Se for comprovado que esse método é confiável, ele vai permitir várias mudanças na forma que nós abordamos machine learning, em que cada inteligência não será um microcosmo independente. Essa relação entre modelos é batizada de relação Professor-Aluno. Esse trabalho descreve o desenvolvimento de dois modelos distintos e suas capacidades de aprender usando a informação dada em um ao outro. Os experimentos apresentados aqui mostram os resultados desse treino e as diferentes metodologias usadas em busca do cenário ótimo em que esse processo de aprendizado é viável para replicação futura. / [en] Propagation of knowledge is one of the pillars of human evolution. Our discoveries are all based on preexisting knowledge, built upon them and then become the foundation for the next generation of learning. In the field of artificial intelligence, there s an interest in replicating this aspect of human nature on machines. By creating a first model and training it on the original data, another model can be created and learn from it instead of having to learn everything from scratch. If this method is proven to be reliable, it will allow many changes in the way that we approach machine learning, specially allowing different models to work together. This relation between models is nicknamed the Teacher-Student relation. This work describes the development of two separate models and their ability to learn using incomplete data and each other. The experiments presented here show the results of this training and the different methods used in the pursuit of an optimal scenario where such learning process is viable for future use.
62

[en] DETECTION, SEPARATION E CLASSIFICATION OF PARTIAL DISCHARGE SIGNALS IN HIGH VOLTAGE INSULATIONS / [pt] DETECÇÃO, SEPARAÇÃO E CLASSIFICAÇÃO DE SINAIS DE DESCARGAS PARCIAIS EM ISOLAMENTOS DE ALTA TENSÃO

THIAGO BAPTISTA RODRIGUES 03 November 2020 (has links)
[pt] A medição e classificação de descargas parciais constituem uma importante ferramenta de avaliação dos sistemas de isolamento utilizados em equipamentos de alta tensão. Após o pré-processamento dos dados, que captura, digitaliza e filtra o sinal de descargas parciais, geralmente eliminando os ruídos, existem basicamente duas etapas principais, que são a extração de características e a classificação de padrões. As descargas parciais contêm um conjunto de características discriminatórias únicas que lhes permitem ser reconhecidas. Assim, o primeiro procedimento no processo de classificação é definir quais delas podem ser utilizadas e qual o método de extração destas características. O fenômeno de descargas parciais tem uma natureza transitória e é caracterizado por correntes pulsantes com uma duração de vários nanossegundos até poucos microssegundos. Sua magnitude não é sempre proporcional ao dano causado, sendo que descargas de pequena magnitude podem levar rapidamente à evolução de um defeito. Por isso a necessidade de se entender bem este fenômeno e saber interpretar os dados. Além disso, equipamentos de alta tensão de grande porte, como motores e geradores, podem apresentar mais de uma fonte interna de descargas parciais, sendo importante separar os sinais dessas diferentes fontes antes de realizar a classificação. No caso de outros equipamentos de alta tensão de menor porte, como para-raios e transformadores de corrente de subestação, a simples detecção da presença de descargas parciais interna ao equipamento, independente do número de fontes, já é suficiente para indicar a retirada de operação destes equipamentos, dado seu baixo custo relativo e o elevado grau de importância destes para a confiabilidade do sistema onde estão inseridos. Para um diagnóstico completo e confíável de isolamentos de alta tensão, há a demanda por um sistema de análise capaz de promover com eficácia a detecção de descargas parciais internas aos equipamentos, a separação das diversas fontes de descargas parciais, no caso dos equipamentos de grande porte, bem como realizar a correta classificação do tipo de defeito, com base principalmente na análise das características discriminantes das diferentes fontes e na assinatura dos sinais para os diferentes defeitos. Este estudo contribui para o preenchimento desta lacuna, apresentando metodologias que se mostram robustas e precisas nos testes realizados, de modo que possam efetivamente orientar os especialistas em manutenção na tomada de decisões. Para fazer isso, são propostas novas variáveis capazes de extrair informações relevantes de sinais no tempo medidos em diversos tipos de isolamentos, sendo aplicadas aqui em dados obtidos em campo e em laboratório para avaliar sua eficácia na tarefa. Essas informações são tratadas utilizando técnicas de classificação de padrões e inteligência artificial para determinar de forma automática a presença de descargas parciais, o número de fontes diferentes e o tipo de defeito nos isolamentos de alta tensão utilizados no estudo. Outra contribuição do estudo é a criação de um banco de dados histórico, baseada em processamento de imagem, com padrões de mapas de descargas parciais conhecidos na literatura em máquinas rotativas, para serem utilizados na classificação de novos mapas medidos neste tipo de equipamento. / [en] Measurement and classification of partial discharges are an important tool for the evaluation of insulation systems used in high voltage equipments. After pre-processing of data, which captures, scans and filters the signal of partial discharges, generally eliminating noises, there are basically two main steps, which are the extraction of characteristics and the pattern classification. Partial discharges contain a set of unique discriminatory characteristics that allow them to be recognized. Thus, the first procedure in the classification process is to define which of them can be used and which is the method for extraction of those characteristics. The phenomenon of partial discharges has a transient nature and is characterized by pulsating currents with a duration of several nanoseconds up to a few microseconds. Its magnitude is not always proportional to the damage caused, and discharges of small magnitude can quickly lead to the evolution of a failure. Therefore the need to understand this phenomenon well and to know how to interpret the data. In addition, large high voltage equipments such as motors and generators may have more than one internal source of partial discharges, and it is important to separate the signals from those different sources prior to classification. In the case of smaller high voltage equipments, as surge arrester and substation current transformers, the simple detection of the presence of partial discharges inside the equipment, regardless of the number of sources, is sufficient to indicate the withdrawal of operation of the equipment, given their low relative cost and the high degree of importance of these to the reliability of the system where they are part of. For a complete and reliable diagnosis of high voltage insulations, there is a demand for an analysis system capable of effectively promoting the detection of the partial discharges internal to the equipments, the separation of the various sources of partial discharges in the case of large equipments, as well as to carry out the correct classification of the type of failure. The system should be based mainly on the analysis of the discriminating characteristics of the different sources and the signature of the signals for the different failure. This study contributes to fill this gap by presenting methodologies that are robust and accurate in the tests performed, so that they can effectively guide maintenance specialists in decision making. To do this, new variables are proposed to extract relevant information from time signals measured in various types of insulations, being applied here in field and laboratory data to evaluate their effectiveness in the task. This information is treated using standard classification techniques and artificial intelligence to automatically determine the presence of partial discharges, the number of different sources and the type of defect in the high voltage insulations used in the study. Another contribution of the study is the creation of a historical database, based on image processing, with partial discharge map patterns known in the literature on rotating machines, to be used in the classification of new maps measured in this type of equipment.
63

[en] IDENTIFICATION OF PROTEIN SUBCELLULAR LOCALIZATION BY DEEP LEARNING TECHNIQUES / [pt] IDENTIFICAÇÃO DA LOCALIZAÇÃO SUBCELULAR DE PROTEÍNAS POR MEIO DE TÉCNICAS DE DEEP LEARNING

ROBERTO BANDEIRA DE MELLO MORAIS DA SILVA 21 May 2020 (has links)
[pt] As proteínas são macromoléculas biológicas compostas por cadeias de aminoácidos, presentes em praticamente todos os processos celulares, sendo essenciais para o correto funcionamento do organismo humano. Existem diversos estudos em torno do proteoma humano a fim de se identificar quais são as funções de cada proteína nas diferentes células, tecidos e órgãos do corpo humano. A classificação destas proteínas em diferentes formas, como por exemplo a localização subcelular, é importante para diversas aplicações da biomedicina. Com o avanço das tecnologias para obtenção de imagens das proteínas, tem-se que hoje estas são geradas em grande volume e mais rapidamente do que é possível classificá-las manualmente, o que torna importante o desenvolvimento de um classificador automático capaz de realizar esta classificação de maneira eficaz. Dessa forma, esta dissertação buscou desenvolver algoritmos capazes de realizar a classificação automática de padrões mistos de localização subcelular de proteínas, por meio do uso de técnicas de Deep Learning. Inicialmente, fez-se uma revisão da literatura em torno de redes neurais, Deep Learning e SVMs, e utilizou-se o banco de dados, publicamente disponíve, de imagens de células do Human Protein Atlas, para treinamento dos algoritmos de aprendizagem supervisionada. Diversos modelos foram desenvolvidos e avaliados, visando identificar aquele com melhor desempenho na tarefa de classificação. Ao longo do trabalho foram desenvolvidas redes neurais artificiais convolucionais de topologia LeNet, ResNet e um modelo híbrido ResNet-SVM, tendo sido treinadas ao todo 81 redes neurais diferentes, a fim de se identificar o melhor conjunto de hiper-parâmetros. As análises efetuadas permitiram concluir que a rede de melhor desempenho foi uma variante da topologia ResNet, que obteve em suas métricas de desempenho uma acurácia de 0,94 e uma pontuação F1 de 0,44 ao se avaliar o comportamento da rede frente ao conjunto de teste. Os resultados obtidos pela diferentes topologias analisadas foram detalhadamente avaliados e, com base nos resultados alcançados, foram sugeridos trabalhos futuros baseados em possíveis melhorias para as redes de melhor desempenho. / [en] Proteins are biological macromolecules composed of aminoacid chains, part of practically all cellular processes, being essential for the correct functioning of the human organism. There are many studies around the human protein aiming to identify the proteins’ functions in different cells, tissues and organs in the human body. The protein classification in many forms, such as the subcellular localization, is important for many biomedical applications. With the advance of protein image obtention technology, today these images are generated in large scale and faster than it is possible to manually classify them, which makes crucial the development of a system capable of classifying these images automatically and accurately. In that matter, this dissertation aimed to develop algorithms capable of automatically classifying proteins in mixed patterns of subcellular localization with the use of Deep Learning techniques. Initially, a literature review on neural networks, Deep Learning and SVMs, and a publicly available image database from the Human Protein Atlas was used to train the supervised learning algorithms. Many models were developed seeking the best performance in the classification task. Throughout this work, convolutional artificial neural networks of topologies LeNet, ResNet and a hybrid ResNet-SVM model were developed, with a total of 81 different neural networks trained, aiming to identify the best hyper-parameters. The analysis allowed the conclusion that the network with best performance was a ResNet variation, which obtained in its performance metrics an accuracy of 0.94 and an F1 score of 0.44 when evaluated against the test data. The obtained results of these topologies were detailedly evaluated and, based on the measured results, future studies were suggested based on possible improvements for the neural networks that had the best performances.
64

[en] A GRAPH-BASED COLLABORATIVE SUPPORT FOR EXPERT FINDING AND RECOMMENDING REFERENCES IN SCIENTIFIC PUBLICATIONS / [pt] SUPORTE COLABORATIVO BASEADO EM GRAFOS PARA LOCALIZAR ESPECIALISTAS E RECOMENDAR REFERÊNCIAS EM ARTIGOS CIENTÍFICOS

ORLANDO FONSECA GUILARTE 07 April 2020 (has links)
[pt] A revisão da literatura científica é um relato crítico dos principais trabalhos em uma área ou tópico específico. Dessa forma, os autores buscam a literatura e apresentam os artigos relevantes de forma organizada por data de publicação e evolução de um tema de pesquisa. Revisões da literatura fornecem uma fotografia do estado da arte de um tópico de pesquisa. Através da seleção dos trabalhos mais importantes de uma certa área é possível identificar os autores mais especializados na área ou em determinados artigos, proporcionando assim uma solução para o problema de encontrar potenciais candidatos especialistas. Nesta tese estudaremos o problema de selecionar e visualizar os artigos mais relevantes que refletem a evolução de um tópico de pesquisa. Para isso, propomos uma abordagem visual colaborativa baseada em grafos para recomendar referências importantes. Apresentamos também a tarefa de encontrar e classificar os autores dado um artigo científico usando caminhos de citações relevantes. A partir de um ranking de referências, o valor da expertise dos autores é calculado. Uma metodologia é proposta para construir e atualizar o grafo de citações de forma colaborativa com os votos dos especialistas. / [en] The scientific literature review is a critical account of the main papers in a particular subject area or topic. In this way, the authors surveys the literature and present the relevant articles in an organized way by publication date and evolution of the research topic, which gives an overview of the state of the art in a subject. Through these relevant papers it is also possible to identify the most expert authors in the area or in certain papers, thus providing a solution to the problem of finding potential expert candidates. The main challenge of making a literature review is to identify the most relevant articles that reflect the evolution of the different research topics. In this thesis, we propose a visual collaborative approach that uses graphs to recommend important references. In addition, we introduce the task of searching and ranking authors given a target paper using relevant citation paths. From a ranking of references, the value of the author s expertise is calculated. A methodology is proposed in order to build and update the citation graph in a collaborative way with the expert s votes.
65

[en] MULTIPLE SENSORS MONITORING SYSTEM BY AUTOASSOCIATIVE NEURAL NETWORKS AND FUZZY LOGIC / [pt] SISTEMA DE MONITORAMENTO DE MÚLTIPLOS SENSORES POR REDES NEURAIS AUTO-ASSOCIATIVAS E LÓGICA FUZZY

JAVIER EDUARDO REYES SANCHEZ 27 August 2019 (has links)
[pt] Calibrações manuais periódicas asseguram o funcionamento correto de um instrumento durante certo período de tempo, mas não garantem que sensores defeituosos permaneçam calibrados por outros períodos, além de eventualmente serem desnecessárias. Em plantas industriais, a análise dos sinais fornecidos pelos sensores que monitoram os processos de produção é uma tarefa difícil em virtude da grande dimensão dos dados. Portanto, uma estratégia de monitoramento e correção online para múltiplos sensores se faz necessária. Este trabalho propõe a utilização de dois modelos: um que emprega Redes Neurais Auto-Associativas com Treinamento Robusto Modificado (RNAAM), e outro que emprega o Teste Seqüencial da Razão de Probabilidade (SPRT) e Lógica Fuzzy. Esses modelos são aplicados em um sistema de monitoramento para auto-correção online e auto-validação das medições realizadas por um grande número de sensores. Diferentemente dos modelos existentes, o sistema proposto faz uso de apenas uma RNAAM para reconstruir os sinais dos sensores com falha. Além disso, os estados do sensor e do modelo de auto-correção são validados por meio dos módulos de confiabilidade e de classificação, respectivamente. Para avaliação do modelo, faz-se uso de uma base de dados com medidas de sensores industriais que controlam e realizam o monitoramento de um motor de combustão interna, instalado em um caminhão de mineração. Os resultados obtidos mostram a capacidade do modelo proposto de mapear e corrigir, com um baixo nível de erro, os sinais dos sensores que apresentam falhas, além de fornecer ao especialista uma ferramenta para a realização de cronogramas de revisão de sensores. / [en] Periodical manual calibrations assure the correct operation of an instrument for a certain period of time, but do not guarantee that faulty sensors remain calibrated for other periods, besides being occasionally unnecessary. In industrial plants the analysis of signals from sensors that monitor a plant is a difficult task due to the high-dimensionality of data. Therefore an online strategy for monitoring and correcting multiple sensors is required. This work proposes the use of two models: one that employs Auto Associative Neural Networks with a Modified Robust Training, and another that employs the Sequential Probability Ratio Test (SPRT) and Fuzzy Logic. These models are applied to an online monitoring system for self-correction and selfvalidation of measurements generated by a large number of sensors. Unlike existing models, the proposed system makes use of only one AANN to reconstruct signals from faulty sensors. Moreover, the states of the sensor and of the self correction model are validated through the reliability and classification modules, respectively. The model is evaluated with a database containing measurements of industrial sensors that control and carry out the monitoring of an internal combustion engine installed in a mining truck. Experimental results show the ability of the proposed model to map and correct signals from faulty sensors with a low error, and to provide a tool for sensor review scheduling.
66

[en] CALCULATION OF SECURITY INDEXES IN POWER SYSTEMS BASED ON TIME DOMAIN SIMULATION / [pt] CÁLCULO DE ÍNDICES DE SEGURANÇA EM SISTEMAS DE ENERGIA ELÉTRICA BASEADO EM SIMULAÇÃO NO DOMÍNIO DO TEMPO

JOAO MAGALHAES DAHL 16 October 2006 (has links)
[pt] Os sistemas de energia elétrica estão operando atualmente próximos dos limites de estabilidade, comprometendo a segurança. Este fato tem sido evidenciado por diversos blackouts no mundo inteiro. A avaliação da segurança dinâmica torna-se, então, fundamental. O objetivo é a busca de um método rápido e, sobretudo, confiável, para analisar o comportamento dinâmico de um sistema de energia elétrica. Esta dissertação trata, portanto, do problema da avaliação da segurança dinâmica de sistemas de energia elétrica. A avaliação é realizada através da determinação das margens de estabilidade, utilizando os resultados de simulações no domínio do tempo, que fornece informações qualitativas a respeito da estabilidade na primeira oscilação. O grupo de geradores severamente perturbados é determinado e a margem de estabilidade de cada um deles é calculada. O gerador que apresentar a menor margem determina a margem de estabilidade do sistema. Quando a margem de estabilidade assume valor nulo, o tempo crítico de eliminação da falta é obtido. Estes resultados são comparados com aqueles determinados pelo método de tentativa e erro, utilizando um programa convencional de estabilidade transitória. Desta forma, as contingências são classificadas em função dos tempos críticos de eliminação de falta, de acordo com o nível de severidade. Essa classificação permite reduzir o conjunto de contingências a ser estudado. A contribuição deste trabalho é mostrar que o critério baseado na aceleração imediatamente após a eliminação da falta é mais eficaz que aquele baseado na aceleração imediatamente após a ocorrência da falta para a indicação do grupo de geradores severamente perturbados. / [en] Power systems have been operating nowadays near to the stability limits putting security under risk. This is one of the reasons why the dynamic security assessment is a fundamental tool to avoid the occurrence of blackouts in the whole world. The goal is a reliable and fast way to evaluate the dynamic behavior of a power system. This dissertation deals with the problem of dynamic security assessment of power systems. The evaluation is performed based on stability margins calculated from time domain simulation results, providing qualitative information about the first swing stability. The group of severely disturbed machines is defined and the stability margins are determined. The machine with the lowest margin determines the stability margin of the system. When the system margin approaches the zero value, the critical clearing time is obtained. These outcomes are compared with that ones determined by trial and error method using a conventional transient stability program. Having done that, a contingency ranking is defined according to the critical clearing time. The ranking minimizes the number of contingencies that have to be studied. This dissertation shows that the criterion to define the group of severely disturbed machines based on the machine accelerations at the instant immediately after the fault clearing time is more efficient than that one based on the machine accelerations at the instant immediately after the fault occurrence.
67

[en] A DEPENDENCY TREE ARC FILTER / [pt] UM FILTRO PARA ARCOS EM ÁRVORES DE DEPENDÊNCIA

RENATO SAYAO CRYSTALLINO DA ROCHA 13 December 2018 (has links)
[pt] A tarefa de Processamento de Linguagem Natural consiste em analisar linguagens naturais de forma computacional, facilitando o desenvolvimento de programas capazes de utilizar dados falados ou escritos. Uma das tarefas mais importantes deste campo é a Análise de Dependência. Tal tarefa consiste em analisar a estrutura gramatical de frases visando extrair aprender dados sobre suas relações de dependência. Em uma sentença, essas relações se apresentam em formato de árvore, onde todas as palavras são interdependentes. Devido ao seu uso em uma grande variedade de aplicações como Tradução Automática e Identificação de Papéis Semânticos, diversas pesquisas com diferentes abordagens são feitas nessa área visando melhorar a acurácia das árvores previstas. Uma das abordagens em questão consiste em encarar o problema como uma tarefa de classificação de tokens e dividi-la em três classificadores diferentes, um para cada sub-tarefa, e depois juntar seus resultados de forma incremental. As sub-tarefas consistem em classificar, para cada par de palavras que possuam relação paidependente, a classe gramatical do pai, a posição relativa entre os dois e a distância relativa entre as palavras. Porém, observando pesquisas anteriores nessa abordagem, notamos que o gargalo está na terceira sub-tarefa, a predição da distância entre os tokens. Redes Neurais Recorrentes são modelos que nos permitem trabalhar utilizando sequências de vetores, tornando viáveis problemas de classificação onde tanto a entrada quanto a saída do problema são sequenciais, fazendo delas uma escolha natural para o problema. Esse trabalho utiliza-se de Redes Neurais Recorrentes, em específico Long Short-Term Memory, para realizar a tarefa de predição da distância entre palavras que possuam relações de dependência como um problema de classificação sequence-to-sequence. Para sua avaliação empírica, este trabalho segue a linha de pesquisas anteriores e utiliza os dados do corpus em português disponibilizado pela Conference on Computational Natural Language Learning 2006 Shared Task. O modelo resultante alcança 95.27 por cento de precisão, resultado que é melhor do que o obtido por pesquisas feitas anteriormente para o modelo incremental. / [en] The Natural Language Processing task consists of analyzing the grammatical structure of a sentence written in natural language aiming to learn, identify and extract information related to its dependency structure. This data can be structured like a tree, since every word in a sentence has a head-dependent relation to another word from the same sentence. Since Dependency Parsing is used in many applications like Machine Translation, Semantic Role Labeling and Part-Of-Speech Tagging, researchers aiming to improve the accuracy on their models are approaching this task in many different ways. One of the approaches consists in looking at this task as a token classification problem, using different classifiers for each sub-task and joining them in an incremental way. These sub-tasks consist in classifying, for each head-dependent pair, the Part-Of-Speech tag of the head, the relative position between the two words and the distance between them. However, previous researches using this approach show that the bottleneck lies in the distance classifier. Recurrent Neural Networks are a kind of Neural Network that allows us to work using sequences of vectors, allowing for classification problems where both our input and output are sequences, making them a great choice for the problem at hand. This work studies the use of Recurrent Neural Networks, in specific Long Short-Term Memory networks, for the head-dependent distance classifier sub-task as a sequence-to-sequence classification problem. To evaluate its efficiency, this work follows the line of previous researches and makes use of the Portuguese corpus of the Conference on Computational Natural Language Learning 2006 Shared Task. The resulting model attains 95.27 percent precision, which is better than the previous results obtained using incremental models.
68

[en] NEUROEVOLUTIVE LEARNING AND CONCEPT DRIFT DETECTION IN NON-STATIONARY ENVIRONMENTS / [pt] APRENDIZAGEM NEUROEVOLUTIVA E DETECÇÃO DE CONCEPT DRIFT EM AMBIENTES NÃO ESTACIONÁRIOS

TATIANA ESCOVEDO 04 July 2016 (has links)
[pt] Os conceitos do mundo real muitas vezes não são estáveis: eles mudam com o tempo. Assim como os conceitos, a distribuição de dados também pode se alterar. Este problema de mudança de conceitos ou distribuição de dados é conhecido como concept drift e é um desafio para um modelo na tarefa de aprender a partir de dados. Este trabalho apresenta um novo modelo neuroevolutivo com inspiração quântica, baseado em um comitê de redes neurais do tipo Multi-Layer Perceptron (MLP), para a aprendizagem em ambientes não estacionários, denominado NEVE (Neuro-EVolutionary Ensemble). Também apresenta um novo mecanismo de detecção de concept drift, denominado DetectA (Detect Abrupt) com a capacidade de detectar mudanças tanto de forma proativa quanto de forma reativa. O algoritmo evolutivo com inspiração quântica binário-real AEIQ-BR é utilizado no NEVE para gerar automaticamente novos classificadores para o comitê, determinando a topologia mais adequada para a nova rede, selecionando as variáveis de entrada mais apropriadas e determinando todos os pesos da rede neural MLP. O algoritmo AEIQ-R determina os pesos de votação de cada rede neural membro do comitê, sendo possível utilizar votação por combinação linear, votação majoritária ponderada e simples. São implementadas quatro diferentes abordagens do NEVE, que se diferem uma da outra pela forma de detectar e tratar os drifts ocorridos. O trabalho também apresenta resultados de experimentos realizados com o método DetectA e com o modelo NEVE em bases de dados reais e artificiais. Os resultados mostram que o detector se mostrou robusto e eficiente para bases de dados de alta dimensionalidade, blocos de tamanho intermediário, bases de dados com qualquer proporção de drift e com qualquer balanceamento de classes e que, em geral, os melhores resultados obtidos foram usando algum tipo de detecção. Comparando a acurácia do NEVE com outros modelos consolidados da literatura, verifica-se que o NEVE teve acurácia superior na maioria dos casos. Isto reforça que a abordagem por comitê neuroevolutivo é uma escolha robusta para situações em que as bases de dados estão sujeitas a mudanças repentinas de comportamento. / [en] Real world concepts are often not stable: they change with time. Just as the concepts, data distribution may change as well. This problem of change in concepts or distribution of data is known as concept drift and is a challenge for a model in the task of learning from data. This work presents a new neuroevolutive model with quantum inspiration called NEVE (Neuro- EVolutionary Ensemble), based on an ensemble of Multi-Layer Perceptron (MLP) neural networks for learning in non-stationary environments. It also presents a new concept drift detection mechanism, called DetectA (DETECT Abrupt) with the ability to detect changes both proactively as reactively. The evolutionary algorithm with binary-real quantum inspiration AEIQ-BR is used in NEVE to automatically generate new classifiers for the ensemble, determining the most appropriate topology for the new network and by selecting the most appropriate input variables and determining all the weights of the neural network. The AEIQ-R algorithm determines the voting weight of each neural network ensemble member, and you can use voting by linear combination and voting by weighted or simple majority. Four different approaches of NEVE are implemented and they differ from one another by the way of detecting and treating occurring drifts. The work also presents results of experiments conducted with the DetectA method and with the NEVE model in real and artificial databases. The results show that the detector has proved efficient and suitable for data bases with high-dimensionality, intermediate sized blocks, any proportion of drifts and with any class balancing. Comparing the accuracy of NEVE with other consolidated models in the literature, it appears that NEVE had higher accuracy in most cases. This reinforces that the neuroevolution ensemble approach is a robust choice to situations in which the databases are subject to sudden changes in behavior.
69

[en] POPULATION DISTRIBUTION MAPPING THROUGH THE DETECTION OF BUILDING AREAS IN GOOGLE EARTH IMAGES OF HETEROGENEOUS REGIONS USING DEEP LEARNING / [pt] MAPEAMENTO DA DISTRIBUIÇÃO POPULACIONAL ATRAVÉS DA DETECÇÃO DE ÁREAS EDIFICADAS EM IMAGENS DE REGIÕES HETEROGÊNEAS DO GOOGLE EARTH USANDO DEEP LEARNING

CASSIO FREITAS PEREIRA DE ALMEIDA 08 February 2018 (has links)
[pt] Informações precisas sobre a distribuição da população são reconhecidamente importantes. A fonte de informação mais completa sobre a população é o censo, cujos os dados são disponibilizados de forma agregada em setores censitários. Esses setores são unidades operacionais de tamanho e formas irregulares, que dificulta a análise espacial dos dados associados. Assim, a mudança de setores censitários para um conjunto de células regulares com estimativas adequadas facilitaria a análise. Uma metodologia a ser utilizada para essa mudança poderia ser baseada na classificação de imagens de sensoriamento remoto para a identificação de domicílios, que é a base das pesquisas envolvendo a população. A detecção de áreas edificadas é uma tarefa complexa devido a grande variabilidade de características de construção e de imagens. Os métodos usuais são complexos e muito dependentes de especialistas. Os processos automáticos dependem de grandes bases de imagens para treinamento e são sensíveis à variação de qualidade de imagens e características das construções e de ambiente. Nesta tese propomos a utilização de um método automatizado para detecção de edificações em imagens Google Earth que mostrou bons resultados utilizando um conjunto de imagens relativamente pequeno e com grande variabilidade, superando as limitações dos processos existentes. Este resultado foi obtido com uma aplicação prática. Foi construído um conjunto de imagens com anotação de áreas construídas para 12 regiões do Brasil. Estas imagens, além de diferentes na qualidade, apresentam grande variabilidade nas características das edificações e no ambiente geográfico. Uma prova de conceito será feita na utilização da classificação de área construída nos métodos dasimétrico para a estimação de população em gride. Ela mostrou um resultado promissor quando comparado com o método usual, possibilitando a melhoria da qualidade das estimativas. / [en] The importance of precise information about the population distribution is widely acknowledged. The census is considered the most reliable and complete source of this information, and its data are delivered in an aggregated form in sectors. These sectors are operational units with irregular shapes, which hinder the spatial analysis of the data. Thus, the transformation of sectors onto a regular grid would facilitate such analysis. A methodology to achieve this transformation could be based on remote sensing image classification to identify building where the population lives. The building detection is considered a complex task since there is a great variability of building characteristics and on the images quality themselves. The majority of methods are complex and very specialist dependent. The automatic methods require a large annotated dataset for training and they are sensitive to the image quality, to the building characteristics, and to the environment. In this thesis, we propose an automatic method for building detection based on a deep learning architecture that uses a relative small dataset with a large variability. The proposed method shows good results when compared to the state of the art. An annotated dataset has been built that covers 12 cities distributed in different regions of Brazil. Such images not only have different qualities, but also shows a large variability on the building characteristics and geographic environments. A very important application of this method is the use of the building area classification in the dasimetric methods for the population estimation into grid. The concept proof in this application showed a promising result when compared to the usual method allowing the improvement of the quality of the estimates.
70

[en] POROSITY ESTIMATION FROM SEISMIC ATTRIBUTES WITH SIMULTANEOUS CLASSIFICATION OF SPATIALLY STRUCTURED LATENT FACIES / [pt] PREDIÇÃO DE POROSIDADE A PARTIR DE ATRIBUTOS SÍSMICOS COM CLASSIFICAÇÃO SIMULTÂNEA DE FACIES GEOLÓGICAS LATENTES EM ESTRUTURAS ESPACIAIS

LUIZ ALBERTO BARBOSA DE LIMA 26 April 2018 (has links)
[pt] Predição de porosidade em reservatórios de óleo e gás representa em uma tarefa crucial e desafiadora na indústria de petróleo. Neste trabalho é proposto um novo modelo não-linear para predição de porosidade que trata fácies sedimentares como variáveis ocultas ou latentes. Esse modelo, denominado Transductive Conditional Random Field Regression (TCRFR), combina com sucesso os conceitos de Markov random fields, ridge regression e aprendizado transdutivo. O modelo utiliza volumes de impedância sísmica como informação de entrada condicionada aos valores de porosidade disponíveis nos poços existentes no reservatório e realiza de forma simultânea e automática a classificação das fácies e a estimativa de porosidade em todo o volume. O método é capaz de inferir as fácies latentes através da combinação de amostras precisas de porosidade local presentes nos poços com dados de impedância sísmica ruidosos, porém disponíveis em todo o volume do reservatório. A informação precisa de porosidade é propagada no volume através de modelos probabilísticos baseados em grafos, utilizando conditional random fields. Adicionalmente, duas novas técnicas são introduzidas como etapas de pré-processamento para aplicação do método TCRFR nos casos extremos em que somente um número bastante reduzido de amostras rotuladas de porosidade encontra-se disponível em um pequeno conjunto de poços exploratórios, uma situação típica para geólogos durante a fase exploratória de uma nova área. São realizados experimentos utilizando dados de um reservatório sintético e de um reservatório real. Os resultados comprovam que o método apresenta um desempenho consideravelmente superior a outros métodos automáticos de predição em relação aos dados sintéticos e, em relação aos dados reais, um desempenho comparável ao gerado por técnicas tradicionais de geo estatística que demandam grande esforço manual por parte de especialistas. / [en] Estimating porosity in oil and gas reservoirs is a crucial and challenging task in the oil industry. A novel nonlinear model for porosity estimation is proposed, which handles sedimentary facies as latent variables. It successfully combines the concepts of conditional random fields (CRFs), transductive learning and ridge regression. The proposed Transductive Conditional Random Field Regression (TCRFR) uses seismic impedance volumes as input information, conditioned on the porosity values from the available wells in the reservoir, and simultaneously and automatically provides as output the porosity estimation and facies classification in the whole volume. The method is able to infer the latent facies states by combining the local, labeled and accurate porosity information available at well locations with the plentiful but imprecise impedance information available everywhere in the reservoir volume. That accurate information is propagated in the reservoir based on conditional random field probabilistic graphical models, greatly reducing uncertainty. In addition, two new techniques are introduced as preprocessing steps for the application of TCRFR in the extreme but realistic cases where just a scarce amount of porosity labeled samples are available in a few exploratory wells, a typical situation for geologists during the evaluation of a reservoir in the exploration phase. Both synthetic and real-world data experiments are presented to prove the usefulness of the proposed methodology, which show that it outperforms previous automatic estimation methods on synthetic data and provides a comparable result to the traditional manual labored geostatistics approach on real-world data.

Page generated in 0.0445 seconds