Spelling suggestions: "subject:"aprendizagem dde máquina."" "subject:"aprendizagem dee máquina.""
111 |
Modelagem acústica no auxílio ao diagnóstico do funcionamento de motores de usinas termoelétricas. / Acoustic modeling to aid in the diagnosis of the operation of thermoelectric plant motors.TEIXEIRA JÚNIOR, Adalberto Gomes. 01 May 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-05-01T14:25:43Z
No. of bitstreams: 1
ADALBERTO GOMES TEIXEIRA JÚNIOR - DISSERTAÇÃO PPGCC 2015..pdf: 2611686 bytes, checksum: 6b9c4a2efc3946611ad0263328434bd1 (MD5) / Made available in DSpace on 2018-05-01T14:25:43Z (GMT). No. of bitstreams: 1
ADALBERTO GOMES TEIXEIRA JÚNIOR - DISSERTAÇÃO PPGCC 2015..pdf: 2611686 bytes, checksum: 6b9c4a2efc3946611ad0263328434bd1 (MD5)
Previous issue date: 2015-07 / Capes / O som gerado por motores em funcionamento contém informações sobre seu estado e condições, tornando-se uma fonte importante para a avaliação de seu funcionamento sem a necessidade de intervenção no equipamento. A análise do estado do equipamento muitas vezes é realizada por diagnóstico humano, a partir da experiência vivenciada no ambiente ruidoso de operação. Como o funcionamento dos motores é regido por um processo periódico, o sinal de áudio gerado segue um padrão bem definido, possibilitando, assim, a avaliação de seu estado de funcionamento por meio desse sinal. Dentro deste contexto, a pesquisa ora descrita trata da modelagem do sinal acústico gerado por motores em usinas termoelétricas, aplicando técnicas de processamento digital de sinais e inteligência artificial, com o intuito de auxiliar o diagnóstico de falhas,
minimizando a presença humana no ambiente de uma sala de motores. A técnica
utilizada baseia-se no estudo do funcionamento dos equipamentos e dos sinais
acústicos por eles gerados por esses, para a extração de características
representativas do sinal, em diferentes domínios, combinadas a métodos de
aprendizagem de máquinas para a construção de um multiclassificador,
responsável pela avaliação do estado de funcionamento desses motores. Para a
avaliação da eficácia do método proposto, foram utilizados sinais extraídos de
motores da Usina Termoelétrica Borborema Energética S.A., no âmbito do
projeto REPARAI (REPair over AiR using Artificial Intelligence, código ANEEL PD6471-0002/2012). Ao final do estudo, o método proposto demonstrou acurácia próxima a 100%. A abordagem proposta caracterizou-se, portanto, como eficiente para o diagnóstico de falhas, principalmente por não ser um método invasivo, não exigindo, portanto, o contato direto do avaliador humano com o motor em funcionamento. / The sound generated by an engine during operation contains information about
its conditions, becoming an important source of information to evaluate its status
without requiring intervention in equipment. The fault diagnosis of the engine
usually is performed by a human, based on his experience in a noisy
environment. As the operation of the engine is a periodic procedure, the
generated signal follows a well-defined pattern, allowing the evaluation of its
operating conditions. On this context, this research deals with modeling the
acoustic signal generated by engines in power plants, using techniques from
digital signal processing and artificial intelligence, with the purpose of assisting
the fault diagnosis, minimizing the human presence at the engine room. The
technique applied is based on the study of engines operation and the acoustic
signal generated by them, extracting signal representative characteristics in
different domains, combined with machine learning methods, to build a multiclassifier
to evaluate the engines status. Signals extracted from engines of
Borborema Energética S.A. power plant, during the REPARAI Project (REPair over
AiR using Artificial Intelligence), ANEEL PD-6471-0002/2012, were used in the
experiments. In this research, the method proposed has demonstrated an
accuracy rate of nearly 100%. The approach has proved itself to be efficient to
fault diagnosis, mainly by not being an invasive method and not requiring human
direct contact with the engine.
|
112 |
Aprendizado de máquina baseado em separabilidade linear em sistema de classificação híbrido-nebuloso aplicado a problemas multiclasseTuma, Carlos Cesar Mansur 29 June 2009 (has links)
Made available in DSpace on 2016-06-02T19:05:36Z (GMT). No. of bitstreams: 1
2598.pdf: 3349204 bytes, checksum: 01649491fd1f03aa5a11b9191727f88b (MD5)
Previous issue date: 2009-06-29 / Financiadora de Estudos e Projetos / This master thesis describes an intelligent classifier system applied to multiclass non-linearly separable problems called Slicer. The system adopts a low computacional cost supervised learning strategy (evaluated as ) based on linear separability. During the learning period the system determines a set of hyperplanes associated to oneclass regions (sub-spaces). In classification tasks the classifier system uses the hyperplanes as a set of if-then-else rules to infer the class of the input attribute vector (non classified object). Among other characteristics, the intelligent classifier system is able to: deal with missing attribute values examples; reject noise examples during learning; adjust hyperplane parameters to improve the definition of the one-class regions; and eliminate redundant rules. The fuzzy theory is considered to design a hybrid version with features such as approximate reasoning and parallel inference computation. Different classification methods and benchmarks are considered for evaluation. The classifier system Slicer reaches acceptable results in terms of accuracy, justifying future investigation effort. / Este trabalho de mestrado descreve um sistema classificador inteligente aplicado a problemas multiclasse não-linearmente separáveis chamado Slicer. O sistema adota uma estratégia de aprendizado supervisionado de baixo custo computacional (avaliado em ) baseado em separabilidade linear. Durante o período de aprendizagem o sistema determina um conjunto de hiperplanos associados a regiões de classe única (subespaços). Nas tarefas de classificação o sistema classificador usa os hiperplanos como um conjunto de regras se-entao-senao para inferir a classe do vetor de atributos dado como entrada (objeto a ser classificado). Entre outras caracteristicas, o sistema classificador é capaz de: tratar atributos faltantes; eliminar ruídos durante o aprendizado; ajustar os parâmetros dos hiperplanos para obter melhores regiões de classe única; e eliminar regras redundantes. A teoria nebulosa é considerada para desenvolver uma versão híbrida com características como raciocínio aproximado e simultaneidade no mecanismo de inferência. Diferentes métodos de classificação e domínios são considerados para avaliação. O sistema classificador Slicer alcança resultados aceitáveis em termos de acurácia, justificando investir em futuras investigações.
|
113 |
Object detection and classication in outdoor environments for autonomous passenger vehicle navigation based on Data Fusion of Articial Vision System and LiDAR sensor / Detecção e classificação de objetos em ambientes externos para navegação de um veículo de passeio autônomo utilizando fusão de dados de visão artificial e sensor laserHenry Roncancio Velandia 30 May 2014 (has links)
This research project took part in the SENA project (Autonomous Embedded Navigation System), which was developed at the Mobile Robotics Lab of the Mechatronics Group at the Engineering School of São Carlos, University of São Paulo (EESC - USP) in collaboration with the São Carlos Institute of Physics. Aiming for an autonomous behavior in the prototype vehicle this dissertation focused on deploying some machine learning algorithms to support its perception. These algorithms enabled the vehicle to execute articial-intelligence tasks, such as prediction and memory retrieval for object classication. Even though in autonomous navigation there are several perception, cognition and actuation tasks, this dissertation focused only on perception, which provides the vehicle control system with information about the environment around it. The most basic information to be provided is the existence of objects (obstacles) around the vehicle. In formation about the sort of object it is also provided, i.e., its classication among cars, pedestrians, stakes, the road, as well as the scale of such an object and its position in front of the vehicle. The environmental data was acquired by using a camera and a Velodyne LiDAR. A ceiling analysis of the object detection pipeline was used to simulate the proposed methodology. As a result, this analysis estimated that processing specic regions in the PDF Compressor Pro xii image (i.e., Regions of Interest, or RoIs), where it is more likely to nd an object, would be the best way of improving our recognition system, a process called image normalization. Consequently, experimental results in a data-fusion approach using laser data and images, in which RoIs were found using the LiDAR data, showed that the fusion approach can provide better object detection and classication compared with the use of either camera or LiDAR alone. Deploying a data-fusion classication using RoI method can be executed at 6 Hz and with 100% precision in pedestrians and 92.3% in cars. The fusion also enabled road estimation even when there were shadows and colored road markers in the image. Vision-based classier supported by LiDAR data provided a good solution for multi-scale object detection and even for the non-uniform illumination problem. / Este projeto de pesquisa fez parte do projeto SENA (Sistema Embarcado de Navegação Autônoma), ele foi realizado no Laboratório de Robótica Móvel do Grupo de Mecatrônica da Escola de Engenharia de São Carlos (EESC), em colaboração com o Instituto de Física de São Carlos (IFSC). A grande motivação do projeto SENA é o desenvolvimento de tecnologias assistidas e autônomas que possam atender às necessidades de diferentes tipos de motoristas (inexperientes, idosos, portadores de limitações, etc.). Vislumbra-se que a aplicação em larga escala desse tipo de tecnologia, em um futuro próximo, certamente reduzirá drasticamente a quantidade de pessoas feridas e mortas em acidentes automobilísticos em estradas e em ambientes urbanos. Nesse contexto, este projeto de pesquisa teve como objetivo proporcionar informações relativas ao ambiente ao redor do veículo, ao sistema de controle e de tomada de decisão embarcado no veículo autônomo. As informações mais básicas fornecidas são as posições dos objetos (obstáculos) ao redor do veículo; além disso, informações como o tipo de objeto (ou seja, sua classificação em carros, pedestres, postes e a própria rua mesma), assim como o tamanho deles. Os dados do ambiente são adquiridos através do emprego de uma câmera e um Velodyne LiDAR. Um estudo do tipo ceiling foi usado para simular a metodologia da detecção dos obstáculos. Estima-se que , após realizar o estudo, que analisar regiões especificas da imagem, chamadas de regiões de interesse, onde é mais provável encontrar um obstáculo, é o melhor jeito de melhorar o sistema de reconhecimento. Observou-se na implementação da fusão dos sensores que encontrar regiões de interesse usando LiDAR, e classificá-las usando visão artificial fornece um melhor resultado na hora de compará-lo com os resultados ao usar apenas câmera ou LiDAR. Obteve-se uma classificação com precisão de 100% para pedestres e 92,3% para carros, rodando em uma frequência de 6 Hz. A fusão dos sensores também forneceu um método para estimar a estrada mesmo quando esta tinha sombra ou faixas de cor. Em geral, a classificação baseada em visão artificial e LiDAR mostrou uma solução para detecção de objetos em várias escalas e mesmo para o problema da iluminação não uniforme do ambiente.
|
114 |
Uma metodologia de binarização para áreas de imagens de cheque utilizando algoritmos de aprendizagem supervisionadaAlves, Rafael Félix 23 June 2015 (has links)
Made available in DSpace on 2016-03-15T19:38:02Z (GMT). No. of bitstreams: 1
RAFAEL FELIX ALVES.pdf: 2156088 bytes, checksum: a82e527c69001eb9cee5a989bde3b8dc (MD5)
Previous issue date: 2015-06-23 / The process of image binarization consists of transforming a color image into a new one with only two colors: black and white. This process is an important step for many modern applica-tions such as Check Clearance, Optical Character Recognition and Handwriting Recognition. Improvements in the automatic process of image binarization represent impacts on applications that rely on this step. The present work proposes a methodology for automatic image binariza-tion. This methodology applies supervised learning algorithms to binarize images and consists of the following steps: images database construction; extraction of the region of interest; pat-terns matrix construction; pattern labelling; database sampling; and classifier training. Experi-mental results are presented using a database of Brazilian bank check images and the competi-tion database DIBCO 2009. In conclusion, the proposal demonstrated to be superior to some of its competitors in terms of accuracy and F-Measure. / O processo de binarização de imagens consiste na transformação de uma imagem colorida em uma nova imagem com apenas duas cores: uma que representa o fundo, outra o objeto de interesse. Este processo é uma importante etapa de diversas aplicações modernas, como a Compensação de Cheque, o Reconhecimento Ótico de Caracteres (do inglês Optical Characterer Recognition) e o Reconhecimento de Texto Manuscrito (do inglês Handwritten Recognition, HWR). Dado que melhorias no processo automático de binarização de imagens representam impactos diretos nas aplicações que dependem desta etapa o presente trabalho propõe uma metodologia para realizar a binarização automática de imagens. A proposta realiza a binarização de forma automática baseado no uso de algoritmos de aprendizagem supervisionada, tais como redes neurais artificiais e árvore de decisão. O processo como um todo consiste das seguintes etapas: construção do banco de imagens; extração da região de interesse; construção da matriz de padrões; rotulação dos padrões; amostragem da base; e treinamento do classificador. Resultados experimentais são apresentados utilizando uma base de imagens de cheques de bancos brasileiros (CMC-7 e montante de cortesia) e a base de imagens da competição DIBCO 2009. Em conclusão, a metodologia proposta apresentou-se competitiva aos métodos da literatura destacando-se em aplicações onde o processamento de imagens está restrito a uma categoria de imagens, como é o caso das imagens de cheques de bancos brasileiros. A presente metodologia apresenta resultados experimentais entre as três primeiras posições e melhores resultados em relação a medida F-Measure quando comparada com as demais.
|
115 |
EXTRAÇÃO CEGA DE SINAIS COM ESTRUTURAS TEMPORAIS UTILIZANDO ESPAÇOS DE HILBERT REPRODUZIDOS POR KERNEIS / BLIND SIGNAL EXTRACTION WITH TEMPORAL STRUCTURES USING HILBERT SPACE REPRODUCED BY KERNELSantana Júnior, Ewaldo éder Carvalho 10 February 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:18Z (GMT). No. of bitstreams: 1
Dissertacao Ewaldo.pdf: 1169300 bytes, checksum: fc5d4b9840bbafe39d03cd1221da615e (MD5)
Previous issue date: 2012-02-10 / This work derives and evaluates a nonlinear method for Blind Source Extraction (BSE) in a
Reproducing Kernel Hilbert Space (RKHS) framework. For extracting the desired signal from
a mixture a priori information about the autocorrelation function of that signal translated in a
linear transformation of the Gram matrix of the nonlinearly transformed data to the Hilbert
space. Our method proved to be more robust than methods presented in the literature of BSE
with respect to ambiguities in the available a priori information of the signal to be extracted.
The approach here introduced can also be seen as a generalization of Kernel Principal
Component Analysis to analyze autocorrelation matrices at specific time lags. Henceforth, the
method here presented is a kernelization of Dependent Component Analysis, it will be called
Kernel Dependent Component Analysis (KDCA). Also in this dissertation it will be show a
Information-Theoretic Learning perspective of the analysis, this will study the transformations
in the extracted signals probability density functions while linear operations calculated in the
RKHS. / Esta dissertação deriva e avalia um novo método nãolinear para Extração Cega de Sinais
através de operações algébricas em um Espaço de Hilbert Reproduzido por Kernel (RKHS, do
inglês Reproducing Kernel Hilbert Space). O processo de extração de sinais desejados de
misturas é realizado utilizando-se informação sobre a estrutura temporal deste sinal desejado.
No presente trabalho, esta informação temporal será utilizada para realizar uma transformação
linear na matriz de Gram das misturas transformadas para o espaço de Hilbert. Aqui, mostrarse-
á também que o método proposto é mais robusto, com relação a ambigüidades sobre a
informação temporal do sinal desejado, que aqueles previamente apresentados na literatura
para realizar a mesma operação de extração. A abordagem estudada a seguir pode ser vista
como uma generalização da Análise de Componentes Principais utilizando Kerneis para
analisar matriz de autocorrelação dos dados para um atraso específico. Sendo também uma
kernelização da Análise de Componentes Dependentes, o método aqui desenvolvido é
denominado Análise de Componentes Dependentes utilizando Kerneis (KDCA, do inglês
Kernel Dependent Component Analysis). Também será abordada nesta dissertação, a
perspectiva da Aprendizagem de Máquina utilizando Teoria da Informação do novo método
apresentado, mostrando assim, que transformações são realizadas na função densidade de
probabilidade do sinal extraído enquanto que operação lineares são calculadas no RKHS.
|
116 |
Abordagem semi-supervisionada para detecção de módulos de software defeituososOLIVEIRA, Paulo César de 31 August 2015 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-07-24T12:11:04Z
No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação Mestrado Paulo César de Oliveira.pdf: 2358509 bytes, checksum: 36436ca63e0a8098c05718bbee92d36e (MD5) / Made available in DSpace on 2017-07-24T12:11:04Z (GMT). No. of bitstreams: 2
license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5)
Dissertação Mestrado Paulo César de Oliveira.pdf: 2358509 bytes, checksum: 36436ca63e0a8098c05718bbee92d36e (MD5)
Previous issue date: 2015-08-31 / Com a competitividade cada vez maior do mercado, aplicações de alto nível de
qualidade são exigidas para a automação de um serviço. Para garantir qualidade de
um software, testá-lo visando encontrar falhas antecipadamente é essencial no ciclo
de vida de desenvolvimento. O objetivo do teste de software é encontrar falhas que
poderão ser corrigidas e consequentemente, aumentar a qualidade do software em
desenvolvimento. À medida que o software cresce, uma quantidade maior de testes
é necessária para prevenir ou encontrar defeitos, visando o aumento da qualidade.
Porém, quanto mais testes são criados e executados, mais recursos humanos e de
infraestrutura são necessários. Além disso, o tempo para realizar as atividades de
teste geralmente não é suficiente, fazendo com que os defeitos possam escapar.
Cada vez mais as empresas buscam maneiras mais baratas e efetivas para detectar
defeitos em software. Muitos pesquisadores têm buscado nos últimos anos,
mecanismos para prever automaticamente defeitos em software. Técnicas de
aprendizagem de máquina vêm sendo alvo das pesquisas, como uma forma de
encontrar defeitos em módulos de software. Tem-se utilizado muitas abordagens
supervisionadas para este fim, porém, rotular módulos de software como defeituosos
ou não para fins de treinamento de um classificador é uma atividade muito custosa e
que pode inviabilizar a utilização de aprendizagem de máquina. Neste contexto, este
trabalho propõe analisar e comparar abordagens não supervisionadas e semisupervisionadas
para detectar módulos de software defeituosos. Para isto, foram
utilizados métodos não supervisionados (de detecção de anomalias) e também
métodos semi-supervisionados, tendo como base os classificadores AutoMLP e
Naive Bayes. Para avaliar e comparar tais métodos, foram utilizadas bases de dados
da NASA disponíveis no PROMISE Software Engineering Repository. / Because the increase of market competition then high level of quality applications
are required to provide automate services. In order to achieve software quality testing
is essential in the development lifecycle with the purpose of finding defect as earlier
as possible. The testing purpose is not only to find failures that can be fixed, but
improve software correctness and quality. Once software gets more complex, a
greater number of tests will be necessary to prevent or find defects. Therefore, the
more tests are designed and exercised, the more human and infrastructure
resources are needed. However, time to run the testing activities are not enough,
thus, as a result, it causes escape defects. Companies are constantly trying to find
cheaper and effective ways to software defect detection in earlier stages. In the past
years, many researchers are trying to finding mechanisms to automatically predict
these software defects. Machine learning techniques are being a research target, as
a way of finding software modules detection. Many supervised approaches are being
used with this purpose, but labeling software modules as defective or not defective to
be used in training phase is very expensive and it can make difficult machine learning
use. Considering that this work aims to analyze and compare unsupervised and
semi-supervised approaches to software module defect detection. To do so,
unsupervised methods (of anomaly detection) and semi-supervised methods using
AutoMLP and Naive Bayes algorithms were used. To evaluate and compare these
approaches, NASA datasets were used at PROMISE Software Engineering
Repository.
|
117 |
Tecnologia adaptativa aplicada a sistemas híbridos de apoio à decisão. / Adaptative tecnology applied to hybrid decision support systems.Okada, Rodrigo Suzuki 11 March 2013 (has links)
Este trabalho apresenta a formulação de um sistema híbrido de apoio à decisão que, através de técnicas adaptativas, permite que múltiplos dispositivos sejam utilizados de forma colaborativa para encontrar uma solução para um problema de tomada de decisão. É proposta uma estratégia particular para o trabalho colaborativo que restringe o acesso aos dispositivos mais lentos com base na dificuldade encontrada pelos dispositivos mais rápidos para solucionar um problema específico. As soluções encontradas por cada dispositivo são propagadas aos demais, permitindo que cada um deles agregue estas novas soluções com o auxílio de técnicas adaptativas. É feito um estudo sobre aprendizagem de máquina mediante incertezas para verificar e minimizar os impactos negativos que uma nova solução, possivelmente errônea, possa ter. O sistema híbrido proposto é apresentado numa aplicação particular, utilizando testes padronizados para compará-lo com os dispositivos individuais que o compõem e com sistemas híbridos de mesma finalidade. Através destes testes, é mostrado que dispositivos consolidados, mesmo que de naturezas distintas, podem ser utilizados de maneira colaborativa, permitindo não só calibrar um compromisso entre o tempo de resposta e a taxa de acerto, mas também evoluir de acordo com o histórico de problemas processados. / This work presents a formulation of a hybrid decision-making system that employs adaptive techniques as a way to coordinate multiple devices in order to make a collaborative decision. The strategy proposed here is to restrict the use of slower devices, based on how difficult the specific problem is - easier problems may be solved on faster devices. Each device is able to learn through solutions given by the others, aggregating new knowledge with the aid of adaptive techniques. In order to evaluate and minimize the negative impact those new solutions may have, a study concerning machine learning under uncertainty is carried out. A particular application of this system has been tested and compared, not only to each individual device that is part of the system itself, but to similar hybrid systems as well. It is shown that even devices of distinct natures may be reused in a collaborative manner, making it possible to calibrate the trade-off between hit rate and response time, and to evolve according to the input stimuli received as well.
|
118 |
Análise de formas usando wavelets em grafos / Shape analysis using wavelets on graphsLeandro, Jorge de Jesus Gomes 11 February 2014 (has links)
O presente texto descreve a tese de doutorado intitulada Análise de Formas usando Wavelets em Grafos. O tema está relacionado à área de Visão Computacional, particularmente aos tópicos de Caracterização, Descrição e Classificação de Formas. Dentre os métodos da extensa literatura em Análise de Formas 2D, percebe-se uma presença menor daqueles baseados em grafos com topologia arbitrária e irregular. As contribuições desta tese procuram preencher esta lacuna. É proposta uma metodologia baseada no seguinte pipeline : (i) Amostragem da forma, (ii) Estruturação das amostras em grafos, (iii) Função-base definida nos vértices, (iv) Análise multiescala de grafos por meio da Transformada Wavelet Espectral em grafos, (v) Extração de Características da Transformada Wavelet e (vi) Discriminação. Para cada uma das etapas (i), (ii), (iii), (v) e (vi), são inúmeras as abordagens possíveis. Um dos desafios é encontrar uma combinação de abordagens, dentre as muitas alternativas, que resulte em um pipeline eficaz para nossos propósitos. Em particular, para a etapa (iii), dado um grafo que representa uma forma, o desafio é identificar uma característica associada às amostras que possa ser definida sobre os vértices do grafo. Esta característica deve capturar a influência subjacente da estrutura combinatória de toda a rede sobre cada vértice, em diversas escalas. A Transformada Wavelet Espectral sobre os Grafos revelará esta influência subjacente em cada vértice. São apresentados resultados obtidos de experimentos usando formas 2D de benchmarks conhecidos na literatura, bem como de experimentos de aplicações em astronomia para análise de formas de galáxias do Sloan Digital Sky Survey não-rotuladas e rotuladas pelo projeto Galaxy Zoo 2 , demonstrando o sucesso da técnica proposta, comparada a abordagens clássicas como Transformada de Fourier e Transformada Wavelet Contínua 2D. / This document describes the PhD thesis entitled Shape Analysis by using Wavelets on Graphs. The addressed theme is related to Computer Vision, particularly to the Characterization, Description and Classication topics. Amongst the methods presented in an extensive literature on Shape Analysis 2D, it is perceived a smaller presence of graph-based methods with arbitrary and irregular topologies. The contributions of this thesis aim at fullling this gap. A methodology based on the following pipeline is proposed: (i) Shape sampling, (ii) Samples structuring in graphs, (iii) Function dened on vertices, (iv) Multiscale analysis of graphs through the Spectral Wavelet Transform, (v) Features extraction from the Wavelet Transforms and (vi) Classication. For the stages (i), (ii), (iii), (v) and (vi), there are numerous possible approaches. One great challenge is to nd a proper combination of approaches from the several available alternatives, which may be able to yield an eective pipeline for our purposes. In particular, for the stage (iii), given a graph representing a shape, the challenge is to identify a feature, which may be dened over the graph vertices. This feature should capture the underlying inuence from the combinatorial structure of the entire network over each vertex, in multiple scales. The Spectral Graph Wavelet Transform will reveal such an underpining inuence over each vertex. Yielded results from experiments on 2D benchmarks shapes widely known in literature, as well as results from astronomy applications to the analysis of unlabeled galaxies shapes from the Sloan Digital Sky Survey and labeled galaxies shapes by the Galaxy Zoo 2 Project are presented, demonstrating the achievements of the proposed technique, in comparison to classic approaches such as the 2D Fourier Transform and the 2D Continuous Wavelet Transform.
|
119 |
Tecnologia adaptativa aplicada a sistemas híbridos de apoio à decisão. / Adaptative tecnology applied to hybrid decision support systems.Rodrigo Suzuki Okada 11 March 2013 (has links)
Este trabalho apresenta a formulação de um sistema híbrido de apoio à decisão que, através de técnicas adaptativas, permite que múltiplos dispositivos sejam utilizados de forma colaborativa para encontrar uma solução para um problema de tomada de decisão. É proposta uma estratégia particular para o trabalho colaborativo que restringe o acesso aos dispositivos mais lentos com base na dificuldade encontrada pelos dispositivos mais rápidos para solucionar um problema específico. As soluções encontradas por cada dispositivo são propagadas aos demais, permitindo que cada um deles agregue estas novas soluções com o auxílio de técnicas adaptativas. É feito um estudo sobre aprendizagem de máquina mediante incertezas para verificar e minimizar os impactos negativos que uma nova solução, possivelmente errônea, possa ter. O sistema híbrido proposto é apresentado numa aplicação particular, utilizando testes padronizados para compará-lo com os dispositivos individuais que o compõem e com sistemas híbridos de mesma finalidade. Através destes testes, é mostrado que dispositivos consolidados, mesmo que de naturezas distintas, podem ser utilizados de maneira colaborativa, permitindo não só calibrar um compromisso entre o tempo de resposta e a taxa de acerto, mas também evoluir de acordo com o histórico de problemas processados. / This work presents a formulation of a hybrid decision-making system that employs adaptive techniques as a way to coordinate multiple devices in order to make a collaborative decision. The strategy proposed here is to restrict the use of slower devices, based on how difficult the specific problem is - easier problems may be solved on faster devices. Each device is able to learn through solutions given by the others, aggregating new knowledge with the aid of adaptive techniques. In order to evaluate and minimize the negative impact those new solutions may have, a study concerning machine learning under uncertainty is carried out. A particular application of this system has been tested and compared, not only to each individual device that is part of the system itself, but to similar hybrid systems as well. It is shown that even devices of distinct natures may be reused in a collaborative manner, making it possible to calibrate the trade-off between hit rate and response time, and to evolve according to the input stimuli received as well.
|
120 |
Análise de formas usando wavelets em grafos / Shape analysis using wavelets on graphsJorge de Jesus Gomes Leandro 11 February 2014 (has links)
O presente texto descreve a tese de doutorado intitulada Análise de Formas usando Wavelets em Grafos. O tema está relacionado à área de Visão Computacional, particularmente aos tópicos de Caracterização, Descrição e Classificação de Formas. Dentre os métodos da extensa literatura em Análise de Formas 2D, percebe-se uma presença menor daqueles baseados em grafos com topologia arbitrária e irregular. As contribuições desta tese procuram preencher esta lacuna. É proposta uma metodologia baseada no seguinte pipeline : (i) Amostragem da forma, (ii) Estruturação das amostras em grafos, (iii) Função-base definida nos vértices, (iv) Análise multiescala de grafos por meio da Transformada Wavelet Espectral em grafos, (v) Extração de Características da Transformada Wavelet e (vi) Discriminação. Para cada uma das etapas (i), (ii), (iii), (v) e (vi), são inúmeras as abordagens possíveis. Um dos desafios é encontrar uma combinação de abordagens, dentre as muitas alternativas, que resulte em um pipeline eficaz para nossos propósitos. Em particular, para a etapa (iii), dado um grafo que representa uma forma, o desafio é identificar uma característica associada às amostras que possa ser definida sobre os vértices do grafo. Esta característica deve capturar a influência subjacente da estrutura combinatória de toda a rede sobre cada vértice, em diversas escalas. A Transformada Wavelet Espectral sobre os Grafos revelará esta influência subjacente em cada vértice. São apresentados resultados obtidos de experimentos usando formas 2D de benchmarks conhecidos na literatura, bem como de experimentos de aplicações em astronomia para análise de formas de galáxias do Sloan Digital Sky Survey não-rotuladas e rotuladas pelo projeto Galaxy Zoo 2 , demonstrando o sucesso da técnica proposta, comparada a abordagens clássicas como Transformada de Fourier e Transformada Wavelet Contínua 2D. / This document describes the PhD thesis entitled Shape Analysis by using Wavelets on Graphs. The addressed theme is related to Computer Vision, particularly to the Characterization, Description and Classication topics. Amongst the methods presented in an extensive literature on Shape Analysis 2D, it is perceived a smaller presence of graph-based methods with arbitrary and irregular topologies. The contributions of this thesis aim at fullling this gap. A methodology based on the following pipeline is proposed: (i) Shape sampling, (ii) Samples structuring in graphs, (iii) Function dened on vertices, (iv) Multiscale analysis of graphs through the Spectral Wavelet Transform, (v) Features extraction from the Wavelet Transforms and (vi) Classication. For the stages (i), (ii), (iii), (v) and (vi), there are numerous possible approaches. One great challenge is to nd a proper combination of approaches from the several available alternatives, which may be able to yield an eective pipeline for our purposes. In particular, for the stage (iii), given a graph representing a shape, the challenge is to identify a feature, which may be dened over the graph vertices. This feature should capture the underlying inuence from the combinatorial structure of the entire network over each vertex, in multiple scales. The Spectral Graph Wavelet Transform will reveal such an underpining inuence over each vertex. Yielded results from experiments on 2D benchmarks shapes widely known in literature, as well as results from astronomy applications to the analysis of unlabeled galaxies shapes from the Sloan Digital Sky Survey and labeled galaxies shapes by the Galaxy Zoo 2 Project are presented, demonstrating the achievements of the proposed technique, in comparison to classic approaches such as the 2D Fourier Transform and the 2D Continuous Wavelet Transform.
|
Page generated in 0.0628 seconds