• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 99
  • 6
  • 2
  • Tagged with
  • 108
  • 108
  • 46
  • 41
  • 40
  • 35
  • 31
  • 30
  • 30
  • 29
  • 25
  • 25
  • 24
  • 24
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A Bayesian framework for object recognition under severe occlusion

GUERRERO PEÑA, Fidel Alejandro 22 February 2017 (has links)
PEÑA, Fidel Alejandro Guerrero também é conhecido em citações bibliográficas por: GUERRERO-PEÑA, Fidel Alejandro / Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T18:34:38Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T21:16:04Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) / Made available in DSpace on 2018-07-26T21:16:04Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Fidel Alenjandro Guerrero Peña.pdf: 3548161 bytes, checksum: 0af5697d578c29adf24e374dac93cf4f (MD5) Previous issue date: 2017-02-22 / CNPq / Shape classification has multiple applications. In real scenes, shapes may contain severe occlusions, hardening the identification of objects. In this work, a bayesian framework for object recognition under severe and varied conditions of occlusion is proposed. The proposed framework is capable of performing three main steps in object recognition: representation of parts, retrieval of the most probable objects and hypotheses validation for final object identification. Occlusion is dealt with separating shapes into parts through high curvature points, then tangent angle signature is found for each part and continuous wavelet transform is calculated for each signature in order to reduce noise. Next, the best matching object is retrieved for each part using Pearson’s correlation coefficient as query prior, indicating the similarity between the part representation and of the most probable object in the database. For each probable class, an ensemble of Hidden Markov Model (HMM) is created through training with the one-class approach. A sort of search space retrieval is created using class posterior probability given by the ensemble. For occlusion likelihood, an area term that measure visual consistency between retrieved object and occlusion is proposed. For hypotheses validation, a area constraint is set to enhance recognition performance eliminating duplicated hypotheses. Experiments were carried out employing several real world images and synthetical generated occluded objects datasets using shapes of CMU_KO and MPEG-7 databases. The MPEG-7 dataset contains 1500 test shape instances with different scenarios of object occlusion with varied levels of object occlusion, different number of object classes in the problem, and different number of objects in the occlusion. For real images experimentation the CMU_KO challenge set contains 8 single view object classes with 100 occluded objects per class for testing and 1 non occluded object per class for training. Results showed the method not only was capable of identifying highly occluded shapes (60%-80% overlapping) but also present several advantages over previous methods. The minimum F-Measure obtained in MPEG-7 experiments was 0.67, 0.93 and 0.92, respectively and minimum AUROC of 0.87 for recognition in CMU_KO dataset, a very promising result due to complexity of the problem. Different amount of noise and varied amount of search space retrieval visited were also tested to measure framework robustness. Results provided an insight on capabilities and limitations of the method, demonstrating the use of HMMs for sorting search space retrieval improved efficiency over typical unsorted version. Also, wavelet filtering consistently outperformed the unfiltered and sampling noise reduction versions under high amount of noise. / A classificação da forma tem múltiplas aplicações. Em cenas reais, as formas podem conter oclusões severas, tornando difícil a identificação de objetos. Neste trabalho, propõe-se uma abordagem bayesiana para o reconhecimento de objetos com oclusão severa e em condições variadas. O esquema proposto é capaz de realizar três etapas principais no reconhecimento de objetos: representação das partes, recuperação dos objetos mais prováveis e a validação de hipóteses para a identificação final dos objetos. A oclusão é tratada separando as formas em partes através de pontos de alta curvatura, então a assinatura do ângulo tangente é encontrada para cada parte e a transformada contínua de wavelet é calculada para cada assinatura reduzindo o ruído. Em seguida, o objeto mais semelhante é recuperado para cada parte usando o coeficiente de correlação de Pearson como prior da consulta, indicando a similaridade entre a representação da parte e o objeto mais provável no banco de dados. Para cada classe provável, um sistema de múltiplos classificadores com Modelos Escondido de Markov (HMM) é criado através de treinamento com a abordagem de uma classe. Um ordenamento do espaço de busca é criada usando a probabilidade a posterior da classe dada pelos classificadores. Como verosimilhança de oclusão, é proposto um termo de área que mede a consistência visual entre o objeto recuperado e a oclusão. Para a validação de hipóteses, uma restrição de área é definida para melhorar o desempenho do reconhecimento eliminando hipóteses duplicadas. Os experimentos foram realizados utilizando várias imagens do mundo real e conjuntos de dados de objetos oclusos gerados de forma sintética usando formas dos bancos de dados CMU_KO e MPEG-7. O conjunto de dados MPEG-7 contém 1500 instâncias de formas de teste com diferentes cenários de oclusão por exemplo, com vários níveis de oclusões de objetos, número diferente de classes de objeto no problema e diferentes números de objetos na oclusão. Para a experimentação de imagens reais, o desafiante conjunto CMU_KO contém 8 classes de objeto na mesma perspectiva com 100 objetos ocluídos por classe para teste e 1 objeto não ocluso por classe para treinamento. Os resultados mostraram que o método não só foi capaz de identificar formas altamente ocluídas (60% - 80% de sobreposição), mas também apresentar várias vantagens em relação aos métodos anteriores. A F-Measure mínima obtida em experimentos com MPEG-7 foi de 0.67, 0.93 e 0.92, respectivamente, e AUROC mínimo de 0.87 para o reconhecimento no conjunto de dados CMU_KO, um resultado muito promissor devido à complexidade do problema. Diferentes quantidades de ruído e quantidade variada de espaço de busca visitado também foram testadas para medir a robustez do método. Os resultados forneceram uma visão sobre as capacidades e limitações do método, demonstrando que o uso de HMMs para ordenar o espaço de busca melhorou a eficiência sobre a versão não ordenada típica. Além disso, a filtragem com wavelets superou consistentemente as versões de redução de ruído não filtradas e de amostragem sob grande quantidade de ruído.
2

Algoritmos bio-inspirados para solução de problemas de otimização

BARBOSA, Carlos Eduardo Martins 09 May 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-25T19:10:42Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-26T22:19:29Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) / Made available in DSpace on 2018-07-26T22:19:29Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Carlos Eduardo Martins Barbosa.pdf: 4171557 bytes, checksum: 916be606f3460c9a1d6bfd4949bcfdb5 (MD5) Previous issue date: 2017-05-09 / Muitos problemas do mundo real podem ser formulados como problemas de otimização em domínios contínuos. Nos últimos anos, algoritmos bio-inspirados, que fundamentam-se no comportamento dos fenômenos naturais, têm sido cada vez mais empregados para resolver tais problemas. Neste trabalho, são investigados 8 (oito) algoritmos inspirados na natureza: algoritmos genéticos (GA), otimização por colônia de formigas (ACO), otimização por enxame de partículas (PSO), colônia de abelhas artificiais (ABC), algoritmo do vaga-lume (FA), algoritmo de busca do pássaro cuco (CS), algoritmo do morcego (BAT) e algoritmo de busca autoadaptativa do pássaro cuco (SACS). Estes algoritmos são analisados em três tipos de problemas distintos, que compreendem (1) funções de benchmark estudadas comumente em problemas de otimização, (2) previsão da energia eólica a partir da velocidade do vento com dados reais coletados de dois parques eólicos, e (3) clusterização de padrões, necessária na solução de problemas não-supervisionados. Os experimentos realizados com os diferentes algoritmos analisaram as principais vantagens e deficiências dos algoritmos em relação à (1) qualidade das soluções obtidas segundo métricas de desempenho específicas para cada problema, (2) tempo de execução do algoritmo e (3) tempo de convergência para a melhor solução. Uma técnica de ajuste automático dos parâmetros, também bio-inspirada, foi desenvolvida e empregada em todos os problemas e algoritmos, para se determinar os valores ótimos para cada método e permitir uma comparação consistente dos resultados. Os experimentos realizados evidenciaram que o algoritmo do pássaro cuco funciona de forma eficiente, robusta e superior aos outros métodos investigados para a maioria dos experimentos realizados, e que a propriedade de cauda longa da distribuição com voos de Lévy, explorada neste trabalho, é a principal responsável pela eficiência deste algoritmo. / Many real-world problems can be formulated as optimization problems in continuous domains. In the last years, bio-inspired algorithms, whice are based on the behavior of natural phenomena, have been increasingly employed to solve such problems. In this work, 8 (eight) algorithms inspired by nature are investigated: genetic algorithms (GA), ant colony optimization (ACO), particle swarm optimization (PSO), artificial bee colony (ABC), firefly algorithm (FA), cuckoo search algorithm (CS), bat algorithm (BAT) and self-adaptive cuckoo search algorithm (SACS). These algorithms are analyzed in three different types of problems, which comprise (1) benchmark functions commonly studied in optimization problems, (2) prediction of wind energy from wind speed with real data collected from two wind farms, and clustering patterns, required in solving unsupervised problems. The experiments performed with the different algorithms investigated the main advantages and disadvantages of the algorithms concerning (1) the quality of the solutions obtained according to specific metrics for each problem, (2) algorithm execution time and (3) convergence time for the best solution. A bio-inspired technique of automatic parameter tuning was developed and employed in all problems and algorithms in order to determine optimal values for each method and to allow a consistent comparison of the results. The performed experiments showed that the cuckoo search algorithm works efficiently, robustly and superior to the other investigated methods for most of the experiments, and the long tail property of the Lévy Flight distribution, explored in this work, is the main responsible for the efficiency of this algorithm.
3

Mapeamento semântico incremental com aprendizagem online e não-supervisionada

SOUSA, Ygor César Nogueira 20 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:14:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:31:06Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) / Made available in DSpace on 2018-08-03T19:31:06Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Ygor Cesar Nogueira Sousa.pdf: 5852968 bytes, checksum: 99160f17e56209e78af6af2d703ca011 (MD5) Previous issue date: 2017-03-20 / CNPq / A crescente inclusão de robôs móveis na vida cotidiana das pessoas, compartilhando espaço como agentes em diferentes atividades, tem dado impulso à criação de uma série de novas tecnologias compostas. Neste contexto, aparece o Mapeamento Semântico, que visa criar uma abstração ou representação do espaço em que um robô navega, a fim de proporcionar um meio para comum entendimento e comunicação entre estes robôs e seres humanos. Essa abstração é criada sob a forma de um mapa que agrega informações semânticas (isto é, informações que façam sentido para um ser humano em termos de comunicação) sobre o ambiente no qual o robô se encontra. Desta forma, esta dissertação introduz uma abordagem de Mapeamento Semântico incremental, com aprendizagem online e não-supervisionada, baseada em Mapas Auto-organizáveis (SOMs) de topologia variante no tempo. A abordagem se divide no módulo de mapeamento, o qual cria mapas topológicos de ambientes incrementalmente, enriquecidos com objetos reconhecidos como informação semântica determinante, e no módulo de categorização de lugares, dotado de um método de aprendizagem incremental, não-supervisionado, com treinamento online, baseado em SOM. Com o intuito de avaliar a viabilidade da abordagem, a mesma foi testada a partir de experimentos realizados com uma base dados reais, os quais demonstraram de forma promissora sua capacidade na aquisição incremental de mapas topológicos enriquecidos com informações semânticas e na categorização de lugares mapeados a partir destas informações. / The increasing inclusion of mobile robots in people’s daily lives, sharing space as agents in a range of different activities, has given rise to the creation of a series of new composite technologies. In this context, it appears the Semantic Mapping, which aims to create an abstraction or representation of space in which a robot navigates in order to provide a means for common understanding and communication between these robots and humans. This abstraction is created in the form of a map that aggregates semantic information (i.e., information that makes sense to a human in terms of communication) about the environment in which the robot is. In this way, this dissertation introduces an incremental semantic mapping approach, with online and unsupervised learning, based on self-organizing maps (SOMs) with time-varying topology. The approach is divided into the mapping module, which incrementally creates topological maps of environments, enriched with recognized objects as determinant semantic information, and in the module of places categorization, endowed with an incremental, unsupervised learning method with online training, based on SOM. In order to evaluate the viability of the approach, it was tested in experiments with real world data, which demonstrated a promising capability for the incremental acquisition of topological maps enriched with semantic information and for the categorization of places based on this information.
4

Agrupamento fuzzy c-medoids semi-supervisionado de dados relacionais representados por múltiplas matrizes de dissimilaridade

BRANCO, Diogo Philippini Pontual 21 July 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-10-05T20:00:48Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-14T22:34:34Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) / Made available in DSpace on 2018-11-14T22:34:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Diogo Philippini Pontual Branco.pdf: 1129238 bytes, checksum: dfe9b5706880e9a9a4dd5acd39d83322 (MD5) Previous issue date: 2017-07-21 / Técnicas de agrupamento de dados geralmente operam em objetos que podem estar descritos pelos seus atributos (feature data) ou por dados relacionais. Em dados relacionais apenas a informação que representa o grau de relacionamento entre os pares de objetos está disponível. O caso mais comum de dados relacionais é quando se tem uma matriz de dissimilaridade () entre objetos e cada célula da matriz tem a informação do grau de relacionamento entre um par de objetos. Esses dados relacionais podem ser (e geralmente são) complexos, tais como objetos multimídia, o que faz com que o relacionamento entre objetos possa ser descrito por múltiplas matrizes de (dis)similaridade. Cada matriz é chamada de visão e dados descritos desta forma são ditos multi-view. Há três principais abordagens para administrar dados multi-view em análise de agrupamento no estado da arte: abordagem de concatenação (fusão de dados), abordagem distribuída e abordagem centralizada. Na abordagem centralizada, se utiliza as múltiplas visões de forma simultânea para encontrar padrões escondidos nos dados; representa um desafio importante pois requer uma modificação profunda do processo de particionamento. Em compensação, essa abordagem geralmente tem uma qualidade dos resultados superior em relação às outras duas abordagens. Agrupamento de dados é uma tarefa difícil, especialmente quando se trata de dados complexos, relacionais, de alta dimensionalidade e com múltiplas visões. Para facilitar o processo, não é incomum utilizar os rótulos dos objetos, contudo, dados rotulados geralmente são escassos; por isso é comum o uso de supervisão parcial, que necessita apenas o rótulo de alguns objetos de um dado conjunto. Este trabalho introduz o algoritmo SS-MVFCVSMdd (Semi-Supervised Multi-View Fuzzy Clustering Vector Set-Medoids), baseado no MVFCVSMdd e com funcionamento parecido com o SSMVFCSMdd. O SS-MVFCVSMdd é um algoritmo particional do tipo fuzzy c-medoids vectors semi-supervisionado de dados relacionais representados por múltiplas matrizes de dissimilaridade. O SS-MVFCVSMdd utiliza restrições par-a-par (must-link e cannot-link) entre objetos como supervisão parcial e é capaz de inferir representantes e pesos de relevância para cada visão. Experimentos são realizados em vários conjuntos de dados comparando seu desempenho com algoritmos de características similares ao SS-MVFCVSMdd. Os resultados apontam que o SS-MVFCVSMdd teve uma qualidade similar ou superior em relação aos outros algoritmos. / Data clustering techniques generally work with objects that can be described by either feature or relational data. In relational data only the information pertaining the relationship degree between pairs of objects is available. The most usual case of relational data is when there is a dissimilarity matrix () between objects and each cell of said matrix contains the relationship degree between a given pair of objects. These relational data may be (and generally are) complex, such as multimedia objects, which may cause the relationship between those objects to be described by multiple (dis)similarity matrices. Each matrix is called view and data described in that way are said to be multi-view. There are three main approaches to manage multi-view data in cluster analysis in the the state of the art: concatenation, distributed and centralized. In the centralized approach the views are considered simultaneously in order to find hidden patterns in the data. On one hand, this poses a great challenge as it requires a profound change in the clustering process. On the other hand, this approach generally offers results with superior quality in comparison with the other two approaches. Clustering is a hard task, specially when it concerns complex relational high-dimension multi-view data. To facilitate the process it is not unusual to use the object labels, although labeled data are generally scarce. Therefore the use of parcial supervision is common, which requires only some of the objects are labeled in a given dataset. This work introduces the SS-MVFCVSMdd (Semi-Supervised Multi-View Fuzzy Clustering Vector Set-Medoids) algorithm, based on the MVFCVSMdd and functions in a similar way as the SS-MVFCSMdd. The SS-MVFCVSMdd is a semi-supervised multi-view fuzzy c-medoids vectors partitional algorithm, which utilizes pairwise constraints (must-link and cannot-link) between objects as partial supervision and infers prototypes and relevance weights for each view. Experiments performed using several datasets comparing the performance of the proposed algorithm with algorithms that have similar characteristics as the proposed algorithm. The results indicate that the SS-MVFCVSMdd had a similar or superior quality than the other algorithms.
5

Métodos de agrupamento difuso multivariado baseados no Fuzzy C-means

PIMENTEL, Bruno Almeida 21 September 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-10-05T21:21:36Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Bruno Almeida Pimentel.pdf: 1823660 bytes, checksum: 2dda6d26c679f00a5e642b456730f356 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-11-14T20:59:03Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Bruno Almeida Pimentel.pdf: 1823660 bytes, checksum: 2dda6d26c679f00a5e642b456730f356 (MD5) / Made available in DSpace on 2018-11-14T20:59:03Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Bruno Almeida Pimentel.pdf: 1823660 bytes, checksum: 2dda6d26c679f00a5e642b456730f356 (MD5) Previous issue date: 2017-09-21 / CNPq / A prática de agrupar objetos de acordo com as similaridades e propriedades observadas é uma atividade importante para muitos ramos da ciência. A sua importância deve-se ao fato que a organização dos dados em grupos é uma forma fundamental para entender e aprender sobre eles. Em Biologia, por exemplo, existe a preocupação de dividir os diferentes animais ou plantas em grupos para melhor entendimento das funções biológicas. Em muitas problemas, além de informar a qual grupo um determinado objeto pertence, é necessário entender quão similar este objeto está para todos os grupos da partição devido à imprecisão ou incerteza dos dados, surgindo, assim, o agrupamento difuso. O principal método de agrupamento difuso bastante conhecido é o Fuzzy C-Means (FCM), o qual tem algumas desvantagens tal como considerar que todos os grupos possuem formas esféricas. Outra desvantagem é que não existe a possibilidade de analisar qual variável (ou um sub-conjunto delas) foi mais importante para definir o valor final do grau de pertinência. Este trabalho apresenta diferentes métodos de agrupamento usando a abordagem difusa presentes na literatura atual e introduz métodos de agrupamento difuso onde os graus de pertinência são multivariados. Desta forma, dado um objeto, é possível calcular o grau dele pertencer a um dado grupo segundo uma variável. A partir deste tipo de grau de pertinência multivariado, duas vantagens podem ser apontadas: 1 - capacidade de interpretar a pertinência de cada objeto para um dado grupo segundo cada variável; 2 - obtenção de mais informação dos dados levando a uma maior qualidade de agrupamento. O objetivo deste trabalho é propor duas categorias de métodos: a primeira é baseada no Fuzzy C-Means e a segunda é baseada no Possibilistic Fuzzy C-Means. Além disso, também são propostos índices de interpretação para avaliar a qualidade do agrupamento para grupo e variável a partir da partição difusa obtida por cada método proposto. Com o objetivo de avaliar o desempenho dos métodos, um estudo comparativo em relação ao agrupamento difuso usando o experimento Monte Carlo é realizado. Foram planejados experimentos com dados sintéticos e reais e um índice de validação é usado para avaliar os métodos. Além disso, aplicação com dados biológicos é apresentada mostrando a utilidade dos métodos propostos. Os resultados mostraram que os métodos multivariados são preferíveis quando as variáveis são independentes e possuem variabilidades intra-classe diferentes. / The practice of classifying objects according to the observed similarities and properties is an important activity for many branches of science. Its importance is due to the fact that the organization of data into groups is a fundamental mode to understand and learn about ones. In Biology, for example, there is concern divide the different animals or plants into groups for better understanding of biological functions. In many problems, besides informing the group which a particular object belongs, it is necessary to understand how this object is similar for all groups due to of the vagueness or uncertainty of the data, emerging, so the fuzzy clustering. The primary method of fuzzy clustering is the Fuzzy C-Means (FCM), which has some disadvantages as considering that all groups have spherical shapes. Another disadvantage is that there is not the possibility to analyze which variable (or a subset of them) was more important to set the final value of the degree of membership. This work presents different clustering methods using fuzzy approach present in the current literature and introduces fuzzy clustering methods where the degrees of membership are multivariate. Thus, given an object, it is possible to calculate the degree it belongs to a group according to a given variable. From this type of degree multivariate relevance, two advantages can be pointed out: 1 - ability to interpret the relevance of each object for a given group according to each variable; 2 – getting more information from the data leading to a better quality of clustering. The objective of this work is to propose two types of methods: the first one is based on the Fuzzy C-Means and the second one is based on the Possibilistic Fuzzy C-Means. Moreover, interpretation indices are also proposed for assessing the quality of the clustering according to each cluster and variable from a fuzzy partition obtained by each proposed method. Aiming to evaluate the performance of the methods, a comparative study with respect to fuzzy clustering using the Monte Carlo experiment is carried out. Experiments with synthetic and real data and a validation index is used to evaluate the methods were planned. Furthermore, application with biological data is presented showing the usefulness of the proposed methods. The results showed that multivariate methods are preferable when the variables are independent and have different intra-class variabilities.
6

Mapas auto-organizáveis de topologia variante no tempo para SLAM visual em espaço de aparências

GOMES, Daniel de Filgueiras 12 March 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-04-25T17:59:51Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Daniel de Filgueiras Gomes.pdf: 7945511 bytes, checksum: 9201fb6e2822d5ece5bb9d95097e983a (MD5) / Made available in DSpace on 2016-04-25T17:59:51Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE Daniel de Filgueiras Gomes.pdf: 7945511 bytes, checksum: 9201fb6e2822d5ece5bb9d95097e983a (MD5) Previous issue date: 2015-03-12 / CAPES / Implementar agentes robóticos autônomos capazes de navegar entre duas posições ou explorar ambientes desconhecidos são problemas antigos e importantes em áreas como robótica e inteligência computacional. Um pré-requisito para subsidiar as atividades de navegação e exploração autônomas é dotar o agente robótico da capacidade de construir mapas do ambiente ao seu redor e de conseguir identificar a sua posição no mapa construído. Este é o problema de mapeamento e localização simultâneos de um ambiente desconhecido (Simultaneous localization and mapping ou SLAM) e pode ser modelado matematicamente como um problema de filtragem. Nos últimos 10 anos foram obtidos grandes avanços nesta área com o desenvolvimento de várias abordagens para a resolução deste problema. As abordagens mais populares utilizam filtros estatísticos, semelhantes ao de Kalman, e visam a construção de mapas com escala métrica, semelhantes aos utilizados em cartografia. Em relação ao aparato sensorial, os sensores mais comuns são do tipo range finder, ou seja, sensores que permitem, de modo direto ou indireto, captar as relações de distância métrica de um determinado ambiente. Exemplos de sensores desta natureza são: Lidares, Sonares, Radares. Este tipo de abordagem resulta, no geral, em um aparato sensorial caro e pesado, que necessita de um alto poder de processamento de dados, alto consumo de energia e de uma modelagem matemática complexa e específica para cada tipo de agente móvel. É uma abordagem, do ponto de vista sensorial, não natural, pois a maioria dos seres vivos não necessita de conhecimento métrico preciso do ambiente que está ao seu redor para se localizar no ambiente e explorar ambientes desconhecidos. Assim, esta tese propõe uma abordagem mais natural ao problema de SLAM, utilizando recursos disponíveis a maioria dos animais, como visão e memorização de relações de vizinhança. Este trabalho realiza uma revisão bibliográfica dos artigos e projetos científicos dos últimos 20 anos relacionados com a área de navegação inteligente e robótica e propõe uma nova abordagem para o problema de SLAM Visual em Espaço de Aparências utilizando apenas visão monocular como estímulo de entrada e mapas auto-organizáveis dinâmicos especializados. / Implement autonomous robotic agents able to navigate between two positions or explore unknown environments are old and important problems in areas such as robotics and artificial intelligence. A prerequisite to support the navigation and autonomous exploration activities is to provide the robotic agent ability to build maps of the around environment and be able to identify its position in the map. This is the simultaneous localization and mapping problem (SLAM) and can be mathematically modeled as a filtering problem. In the last 10 years were obtained great advances in this area with the development of various approaches to solving this problem. The most popular approaches use statistical filters, similar to the Kalman, and aim to build maps with metric scale, similar to those used in cartography. Regarding the sensory apparatus, the most common sensors type are range finders, it are, directly or indirectly, capture metric distance and the relationships of a given environment. Examples of sensors of this type are: Lidar, Sonar, Radar. This approach results, in general, in an expensive and heavy sensory apparatus, a high-powered data processing, high energy consumption and a complex and specific mathematical modeling for each type of mobile agent. It also does not appear to be a natural approach, since most living beings does not require metric knowledge need the ambiance this around to locate the environment and explore unknown environments. Thus, this thesis aims to provide a more natural approach to the SLAM problem using available resources most animals, such as vision and neighborly relations memorization. This thesis conducts a literature review of articles and scientific projects of the last 20 years related to the field of robotics and intelligent navigation and proposes a new approach for Visual SLAM problem using only monocular vision as input stimuli and self-organizing maps dynamic specialize in memorizing states trajectories.
7

Sobre o desempenho de algoritmos de aprendizado de máquinas na detecção de falhas em motores de indução trifásicos: um estudo comparativo / Performance comparison of machine learning algorithms for three-phase induction motors fault detection

Coelho, David Nascimento 29 September 2015 (has links)
COELHO, D. N. Sobre o desempenho de algoritmos de aprendizado de máquinas na detecção de falhas em motores de indução trifásicos: um estudo comparativo. 2015. 96 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2015. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2016-04-25T17:28:30Z No. of bitstreams: 1 2016_dis_dncoelho.pdf: 2443057 bytes, checksum: c4c95e87decd31644826d187ee8fcaa3 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-04-29T17:33:01Z (GMT) No. of bitstreams: 1 2016_dis_dncoelho.pdf: 2443057 bytes, checksum: c4c95e87decd31644826d187ee8fcaa3 (MD5) / Made available in DSpace on 2016-04-29T17:33:01Z (GMT). No. of bitstreams: 1 2016_dis_dncoelho.pdf: 2443057 bytes, checksum: c4c95e87decd31644826d187ee8fcaa3 (MD5) Previous issue date: 2015-09-29 / This dissertation aims at the detection of short-circuit incipient fault condition in a threephase squirrel-cage induction motor fed by a sinusoidal PWM inverter. In order to detect this fault, a test bench is used to impose different operation conditions to an induction motor, and each sample of the data set is taken from the line currents of the PWM inverter aforementioned. For feature extraction, the Motor Current Signature Analysis is used. The detection of this fault is treated as a classification problem, therefore different supervised algorithms of machine learning are used so as to solve it: Ordinary Least Squares, Singlelayer Perceptron, Multi-layer Perceptron, Extreme Learning Machine, Support-Vector Machine, Least-Squares Support-Vector Machine, the Minimal Learning Machine, and Gaussian Classifiers. Together with Reject Option technique, these classifiers are tested and the results are compared with other works that use the same data set. Maximum accuracy rates of 100% with Support-Vector Machine and Least-Squares Support-Vector Machine classifiers suggest that, in near future, an embedded system can be developed with these algorithms. / Esta dissertação visa a detecção de falhas incipientes por curto-circuito entre espiras de um motor de indução trifásico do tipo gaiola de esquilo acionado por conversor de frequência com modulação por largura de pulso do tipo senoidal. Para detectar este tipo de falha, uma bancada de testes é utilizada para impor diferentes condições de operação ao motor, e cada amostra do conjunto de dados foi extraída das correntes de linha do conversor de frequência supracitado. Para extração de características, a análise da assinatura de corrente do motor foi utilizada. Para solucionar este problema, a detecção desta falha é tratada como um problema de classificação, por isso, diferentes algoritmos supervisionados de aprendizado de máquina são utilizados: Mínimos Quadrados Ordinários, Redes Perceptron Simples, Redes Perceptron Multicamadas, Máquina de Aprendizado Extremo, Máquina de Vetor de Suporte, Máquina de Vetor de Suporte por Mínimos Quadrados, Máquina de Aprendizado Mínimo, e Classificadores Gaussianos. Juntamente com a técnica de opção de rejeição, estes classificadores são testados e os resultados destes são comparados entre si e com outros trabalhos que fizeram uso mesmo banco de dados. Taxas de acerto máximo de 100% com os classificadores Máquina de Vetor de Suporte e Máquina de Vetor de Suporte por Mínimos Quadrados sugerem que, em um futuro próximo, um sistema embarcado pode ser desenvolvido com estes algoritmos.
8

Um Sistema para Mapeamento de Grandes Regiões usando GraphSLAM

MUTZ, F. W. 21 May 2014 (has links)
Made available in DSpace on 2016-08-29T15:33:18Z (GMT). No. of bitstreams: 1 tese_7764_Dissertacao-Filipe-final-Revisado.pdf: 4933247 bytes, checksum: 53aad1c8311e994d6cd2a96792474d67 (MD5) Previous issue date: 2014-05-21 / Um dos grandes desafios de robótica nos últimos anos tem sido o desenvolvimento de veículos robóticos com alto nível de autonomia, capazes de navegar por longos períodos de tempo sem a intervenção de um usuário humano. Existe uma grande expectativa de que, no futuro, os automóveis autônomos possam ser usados para prover acessibilidade para deficientes, reduzir o tempo e o custo para transportar cargas e oferecer conforto para pessoas que não podem ou simplesmente não querem dirigir. Além disso, o uso de veículos autônomos tem o potencial para aumentar significativamente a segurança no trânsito uma vez que os robôs possuem uma capacidade ampliada de observar o mundo e não estão sujeitos a estados indesejados como cansaço, nervosismo, embriaguez, pressa ou estresse. Neste trabalho, foi estudado o problema de criação de mapas de grandes regiões para a localização e navegação de automóveis autônomos. Foram estudadas várias abordagens para solução do problema e foi desenvolvido um sistema de mapeamento de grandes regiões (Large-scale Environment Mapping System LEMS) usando o algoritmo GraphSLAM baseado em poses. Os experimentos realizados mostraram que o LEMS foi capaz de mapear com uma boa qualidade diferentes regiões com tamanhos e características específicos. Durante o desenvolvimento do LEMS foi observado que os erros de odometria eram não-gaussianos e sujeitos a bias. Por isto, foi criada uma ferramenta para encontrar automaticamente o bias usando otimização por enxame de partículas. Os experimentos realizados mostraram que ao integrar o bias à odometria, o dead-reckoning foi capaz de aproximar com uma boa precisão o trajeto medido pelo GPS.
9

Agrupamento de dados intervalares usando uma abordagem não linear

BARREIROS, Daniel Bion 24 August 2016 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-07-11T20:03:14Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Bion Barreiros.pdf: 539777 bytes, checksum: 8e84328a9bfeb5bf449948e1b27eaf03 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-17T22:23:26Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Bion Barreiros.pdf: 539777 bytes, checksum: 8e84328a9bfeb5bf449948e1b27eaf03 (MD5) / Made available in DSpace on 2018-07-17T22:23:26Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Daniel Bion Barreiros.pdf: 539777 bytes, checksum: 8e84328a9bfeb5bf449948e1b27eaf03 (MD5) Previous issue date: 2016-08-24 / A Análise de Dados Simbólicos (ADS) é uma abordagem da área de inteligência computacional que visa desenvolver métodos para dados descritos por variáveis onde existem conjuntos de categorias, intervalos ou distribuições de probabilidade. O objetivo deste trabalho é estender um método probabilístico de agrupamento clássicos para dados simbólicos intervalares fazendo uso de funções de núcleo. A aplicação de funções de núcleo tem sido utilizada com sucesso no agrupamento para dados clássicos apresentando resultados positivos quando o conjunto de dados apresenta grupos não linearmente separáveis. No entanto, a literatura de ADS precisa de métodos probabilísticos para identificar grupos não linearmente separáveis. Para mostrar a eficácia do método proposto, foram realizados experimentos com conjuntos de dados intervalares reais, e conjuntos sintéticos fazendo uso de simulações Monte Carlo. Também se apresenta um estudo comparando o método proposto com diferentes algoritmos de agrupamento da literatura através de estatísticas que evidenciam o desempenho superior do método proposto em determinados casos. / Symbolic Data Analysis (SDA) is a domain in the computational intelligence area that aims to provide suitable methods for data described through multi-valued variables, where there are sets of categories, intervals, histograms, or weight (probability) distributions. This work aims to extend a probabilistic clustering method of classic data to symbolic interval data making use of kernel functions. The kernel functions application have been successfully used in classic data clustering showing positive results when the data set has non linearly separable groups. However, SDA literature needs more probabilistic methods to identify non linearly separable groups. To show the effectiveness of the proposed method, experiments were performed with real interval data sets, and synthetic interval data sets using Monte Carlo simulations. It is also presented a study comparing the proposed method with different clustering algorithms of the literature through statistics that demonstrate the superior performance of the proposed method in certain cases.
10

An adaptive learning system for time series forecasting in the presence of concept drift

CAVALCANTE, Rodolfo Carneiro 13 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:38:56Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rodolfo Carneiro Cavalcante.pdf: 4472525 bytes, checksum: b8913f87ac611abb2701ce3e4918cbcb (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:05:14Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rodolfo Carneiro Cavalcante.pdf: 4472525 bytes, checksum: b8913f87ac611abb2701ce3e4918cbcb (MD5) / Made available in DSpace on 2018-08-02T20:05:14Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rodolfo Carneiro Cavalcante.pdf: 4472525 bytes, checksum: b8913f87ac611abb2701ce3e4918cbcb (MD5) Previous issue date: 2017-03-13 / FACEPE / A time series is a collection of observations measured sequentially in time. Several realworld dynamic processes can be modeled as time series. One of the main problems of time series analysis is the forecasting of future values. As a special kind of data stream, a time series may present concept drifts, which are changes in the underlying data generation process from time to time. The concept drift phenomenon affects negatively the forecasting methods which are based on observing past behaviors of the time series to forecast future values. Despite the fact that concept drift is not a new research area, the effects of concept drifts in time series are not widely studied. Some approaches proposed in the literature to handle concept drift in time series are passive methods that successive update the learned model to the observations that arrive from the data stream. These methods present no transparency to the user and present a potential waste of computational resources. Other approaches are active methods that implement a detect-and-adapt scheme, in which the learned model is adapted just after the explicit detection of a concept drift. By using explicit detection, the learned model is updated or retrained just in the presence of drifts, which can reduce the space and computational complexity of the learning system. These methods are generally based on monitoring the residuals of a fitted model or on monitoring the raw time series observations directly. However, these two sources of information (residuals and raw observations) may not be so reliable for a concept drift detection method applied to time series. Residuals of a fitted model may be influenced by problems in training. Raw observations may present some variations that do not represent significant changes in the time series data stream. The main contribution of this work is an active adaptive learning system which is able to handle concept drift in time series. The proposed method, called Feature Extraction and Weighting for Explicit Concept Drift Detection (FW-FEDD) considers a set of time series features to detect concept drifts in time series in a more reliable way, being trustworthy and transparent to users. The features considered are weighted according to their importance to define concept drifts at each instant. A concept drift test is then used to detect drifts in a more reliable way. FW-FEDD also implements a forecasting module composed by a pool of forecasting models in which each model is specialized in a different time series concept. Several computational experiments on both artificial and real-world time series showed that the proposed method is able to improve the concept drift detection accuracy compared to methods based on monitoring raw time series observations and residual-based methods. Results also showed the superiority of FW-FEDD compared to other passive and active adaptive learning systems in terms of forecasting performance. / Uma série temporal é uma coleção de observações medidas sequencialmente no tempo. Diversos processos dinâmicos reais podem ser modelados como uma série temporal. Um dos principais problemas no contexto de séries temporais é a previsão de valores futuros. Sendo um tipo especial de fluxo de dados, uma série temporal pode apresentar mudança de conceito, que é a mudança no processo gerador dos dados. O fenômeno da mudança de conceito afeta negativamente os métodos de previsão baseados na observação do comportamento passado da série para prever valores futuros. Apesar de que mudança de conceito não é uma nova área, os efeitos da mudança de conceito em séries temporais ainda não foram amplamente estudados. Algumas abordagens propostas na literatura para tratar esse problema em séries temporais são métodos passivos que atualizam sucessivamente o modelo aprendido com novas observações que chegam do fluxo de dados. Estes métodos não são transparentes para o usuário e apresentam um potencial consumo de recursos computacionais. Outras abordagens são métodos ativos que implementam um esquema de detectar-e-adaptar, no qual o modelo aprendido é adaptado somente após a detecção explícita de uma mudança. Utilizando detecção explícita, o modelo aprendido é atualizado ou retreinado somente na presença de mudanças, reduzindo a complexidade computacional e de espaço do sistema de aprendizado. Estes método são geralmente baseados na monitoração dos resíduos de um modelo ajustado ou na monitoração dos dados da série diretamente. No entanto, estas duas fontes de informação (resíduos e dados crus) podem não ser tão confiáveis para um método de detecção de mudanças. Resíduos de um modelo ajustado podem ser influenciados por problemas no treinamento. Observações cruas podem apresentar variações que não representam mudanças significativas no fluxo de dados. A principal contribuição deste trabalho é um sistema de aprendizado adaptativo ativo capaz de tratar mudanças de conceito em séries temporais. O método proposto, chamado de Feature Extraction and Weighting for Explicit Concept Drift Detection (FW-FEDD) considera um conjunto de características da série temporal para detectar mudança de conceito de uma forma mais confiável, sendo transparente ao usuário. As características consideradas são ponderadas de acordo com sua importância para a definição das mudanças em cada instante. Um teste de mudança de conceito é utilizado para detectar as mudanças de forma mais confiável. FW-FEDD também implementa um módulo de previsão composto por um conjunto de modelos de previsão onde cada modelo é especializado em um conceito diferente. Diversos experimentos computacionais usando séries reais e artificiais mostram que o método proposto é capaz de melhorar a detecção de mudança de conceito comparado com métodos baseados na monitoração de dados crus da série e métodos baseados em resíduos. Resultados também mostraram a superioridade do FW-FEDD comparado com outros métodos de aprendizado adaptativo ativos e passivos em termos de acurácia de predição.

Page generated in 0.4914 seconds