• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1019
  • 175
  • 34
  • 24
  • 24
  • 24
  • 19
  • 14
  • 5
  • 4
  • 4
  • 4
  • 1
  • Tagged with
  • 1240
  • 1001
  • 587
  • 413
  • 199
  • 176
  • 174
  • 151
  • 143
  • 135
  • 129
  • 123
  • 120
  • 117
  • 116
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Investigação de técnicas de classificação hierárquica para problemas de bioinformática / Investigation of hierarchial classification techniques for bioinformatics problems

Eduardo de Paula Costa 25 March 2008 (has links)
Em Aprendizado de Máquina e Mineração de Dados, muitos dos trabalhos de classificação reportados na literatura envolvem classificação plana (flat classification), em que cada exemplo é associado a uma dentre um conjunto finito (e normalmente pequeno) de classes, todas em um mesmo nível. Entretanto, existem problemas de classificação mais complexos em que as classes a serem preditas podem ser dispostas em uma estrutura hierárquica. Para esses problemas, a utilização de técnicas e conceitos de classificação hierárquica tem se mostrado útil. Uma das linhas de pesquisa com grande potencial para a utilização de tais técnicas é a Bioinformática. Dessa forma, esta dissertação apresenta um estudo envolvendo técnicas de classificação hierárquica aplicadas à predição de classes funcionais de proteínas. No total foram investigados doze algoritmos hierárquicos diferentes, sendo onze deles representantes da abordagem Top-Down, que foi o enfoque da investigação realizada. O outro algoritmo investigado foi o HC4.5, um algoritmo baseado na abordagem Big- Bang. Parte dos algoritmos estudados foram desenvolvidos com base em uma variação da abordagem Top-Down, denominada de Top-Down Ensemble, que foi proposta neste estudo. Alguns do algoritmos baseados nessa nova abordagem apresentaram resultados promissores, superando os resultados dos demais algoritmos. Para avaliação dos resultados, foi utilizada uma medida específica para problemas hierárquicos, denominada taxa de acerto dependente da profundidade. Além dessa, outras três medidas de avaliação foram utilizadas, de modo a comparar os resultados reportados por diferentes medidas / In Machine Learning and Data Mining, most of the research in classification reported in the literature involve flat classification, where each example is assigned to one class out of a finite (and usually small) set of flat classes. Nevertheless, there are more complex classification problems in which the classes to be predicted can be disposed in a hierarchy. In this context, the use of hierarchical classification techniques and concepts have been shown to be useful. One research with great potential is the application of hierarchical classification techniques to Bioinformatics problems. Therefore, this MSc thesis presents a study involving hierarchical classification techniques applied to the prediction of functional classes of proteins. Twelve different algorithms were investigated - eleven of them based on the Top-Down approach, which was the focus of this study. The other investigated algorithm was HC4.5, an algorithm based on the Big-Bang approach. Part of these algorithms are based on a variation of the Top-Down approach, named Top-Down Ensembles, proposed in this study. Some of the algorithms based on this new approach presented promising results, which were better than the results presented by other algorithms. A specific evaluation measure for hierarchical classification, named depth-dependent accuracy, was used to evaluate the classification models. Besides, other three evaluation measures were used in order to compare the results reported by them
442

Um algoritmo evolutivo para aprendizado on-line em jogos eletrônicos / An evolutionary algorithm to online learning in computer games

Márcio Kassouf Crocomo 11 April 2008 (has links)
Este trabalho verifica a possibilidade de se aplicar Algoritmos Evolutivos no aprendizado on-line de jogos. Alguns autores concordam que Algoritmos Evolutivos não são aplicáveis na prática para se atingir o objetivo em questão. É com a intenção de contestar a veracidade desta afirmação que foi desenvolvido o presente trabalho. Para atingir o objetivo proposto, foi desenvolvido um jogo de computador, no qual o algoritmo de aprendizado gera estratégias inteligentes e adaptativas para os caracteres não controlados pelo jogador através de um algoritmo evolutivo. Desta forma, a função do algoritmo evolutivo é fazer com que a estratégia utilizada pelo computador se adapte à estratégia utilizada pelo usuário a cada vez que joga. É apresentada uma revisão bibliográfica a respeito de Computação Evolutiva e as técnicas utilizadas para implementar comportamentos inteligentes para os caracteres controlados por computador nos jogos atuais, esclarecendo suas vantagens, desvantagens e algumas possíveis aplicações. São também explicados o jogo e os algoritmos implementados, assim como os experimentos realizados e seus resultados. Por fim, é feita uma comparação do algoritmo evolutivo final com uma outra técnica de adaptação, chamada Dynamic Scripting. Assim, este trabalho oferece contribuições para o campo de Computação Evolutiva e Inteligência Artificial aplicada a jogos / The goal of this work is to verify if it is possible to apply Evolutionary Algorithms to online learning in computer games. Some authors agree that evolutionary algorithms do not work properly in that case. With the objective of contesting this affirmation, this work was performed. To accomplish the goal of this work, a computer game was developed, in which the learning algorithm must create intelligent and adaptive strategies to control the non-player characters using an evolutionary algorithm. Therefore, the aim of the evolutionary algorithm is to adapt the strategy used by the computer according to the player\'s actions during the game. A review on Evolutionary Computation and the techniques used to produce intelligent behaviors for the computer controlled characters in modern game is presented, exposing the advantages, the problems and some applications of each technique. The proposed game is also explained, together with the implemented algorithms, the experiments and the obtained results. Finally, it is presented a comparison between the implemented algorithm and the Dynamic Script technique. Thus, this work offers contributions to the fields of Evolutionary Computation and Artificial Intelligence applied to games
443

Ensino de projeto na FAUUSP: Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo / Project Teaching at FAU USP: Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo

Antonio Carlos Barossi 17 November 2005 (has links)
Esta tese traz a proposta de que pensar sobre o ensino de projeto requer a utilização de procedimentos, conceitos e objetivos próprios da produção da arquitetura: a forma, o olhar, o vazio, a totalidade e a identidade. Aborda-se o ensino de projeto na Faculdade de Arquitetura e Urbanismo da Universidade de São Paulo hoje, e se considera que uma aproximação abrangente e conseqüente do ensino de projeto de arquitetura deva ser feita a partir da instância capaz de exprimi-lo plenamente: o aluno na cidade. O aluno como indivíduo, pessoa, com identidade e personalidade que traz em si a própria materialização desse ensino; e a cidade, espaço da sua realização, que tem no edifício da escola o elemento gerador e gerado pela cidade, e na forma de sua ocupação uma representação e expressão totalizadora desse ensino. Em primeiro lugar, após uma INTRODUÇÃO situando as circunstancias que determinaram este trabalho, faz-se uma REFLEXÃO sobre o Tempo do percurso do aluno situado no Espaço de sua realização, propondo a partir da História a perspectiva para a construção de um olhar para o projeto e, na especificidade de cada obra, o seu Método, exemplificando-o com base em um projeto profissional próprio. Permeando essa reflexão explicitam-se a partir da experiência docente as principais questões Didáticas que se apresentam no contexto do ensino, tanto do ponto de vista do processo geral de disciplinas ministradas como dos trabalhos nelas produzidos pelos alunos. Em seguida apresentam-se os elementos considerados indissociáveis e unos da AÇÃO acadêmica: o Professor e as obras de sua produção profissional, destacando as questões que remetem à atuação didática e vice-versa; os Alunos, na sua vivência dentro e fora da estrutura curricular revelada a partir de duas experiências; e a Escola, ambiente da experimentação, síntese e conjunção desses elementos, apresentada a partir de uma proposta de trabalho didático e do plano de uma disciplina. Depois, elabora-se uma PROPOSIÇÃO apresentada através de sugestões para a estrutura curricular à maneira de uma Arquitetura, cuja estrutura é o aluno, e um projeto para intervenções no espaço do aprendizado como representação e expressão das idéias de Ensino. Na primeira, a busca de uma representação formal e totalizadora da estrutura curricular; na outra, o projeto do espaço da realização do ensino e do aprendizado, que também é uma representação de caráter totalizador. A primeira, uma estrutura curricular, tendendo a uma arquitetura. A segunda, uma arquitetura, tendendo a uma estrutura de ensino. No seu encontro, o aluno. Finalmente apresenta a CONCLUSÃO, em que se relativizam os procedimentos didático-pedagógicos para o ensino de projeto, em função da perspectiva de uma inserção dos processos de aprendizado no contexto da produção da cidade, com a qual se mesclam, e nos quais se considera o aluno como sujeito, a história, como sua base, a obra do professor, como uma referência; e o edifício da escola, inserido na cidade, mais do que o lugar de sua realização, como a possibilidade de sua afirmação. / This thesis has the idea that to consider a structure for teaching project-design requires the use of procedures, concepts, and aims that are an immanent part of the production of architecture: the form, the view, the void, the wholeness, and the identity. It is about the teaching of project-design at the School of Architecture and Urbanism at the University of São Paulo nowadays, and it considers that an extensive and consequent approach to the teaching of architectural project-design has to start right from the instance that is capable of expressing it directly from its center: the student in the city. The student as an individual, a person with an identity and personality that carries the materialization of this teaching in himself, and the city, space of its realization, which has the school-building, an element generating and being generated by the city itself, and its occupation as representation and complete expression of this way of teaching. First, after an INTRODUCTION about the circumstances that determined this work, comes a REFLECTION about the Time period of the students course and the Space where its realized, proposing, based on History, a constructive view of the project, and, in the specified way of each work, its Method, exemplifying it based on a professional project. Through this reflection, the basic Didactic Questions in the context of teaching explain themselves based on the teaching experience, as well as from the point of view of the general process of the taught disciplines, as by the works produced by the students. After this are shown the elements considered as an inseparable unity of the academic ACTION: The Professor and the works of his professional production, emphasizing the questions referred to his didactic acting and vice versa, the Students, with their experiences inside and outside of the scholar structure developed from two sides, and the School, the environment of experimentation, a synthesis and conjunction of those elements, based itself on an idea of didactic work and a teaching concept. In following, a PROPOSITION is elaborated suggesting a study plan as a kind of Architecture whose structure is the student himself, and an intervention project, in the space of apprenticeship, being the representation and expression of the ideas of Teaching. For the first, the search for a formal and completing representation of the study plan, for the other, the spatial project of the realization of the teaching and learning which also is of a completing character. The first, a study plan tending to be architecture. The second, an architecture tending to be a structure of teaching. At their meeting point, the student. Finally a CONCLUSION that consider the limits of the didactic-pedagogic procedures to project-design teaching, by the insertion of learning processes in the context of city-producing, considering the student as subject, the history as his base and the work of the professor as a reference.
444

Tratamento bayesiano de interações entre atributos de alta cardinalidade / Handling interactions among high cardinality attributes

Jambeiro Filho, Jorge Eduardo de Schoucair 11 July 2007 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-09T21:11:41Z (GMT). No. of bitstreams: 1 JambeiroFilho_JorgeEduardodeSchoucair_D.pdf: 736285 bytes, checksum: b7d7f186f743f9b0e541c857b0ca8226 (MD5) Previous issue date: 2007 / Resumo: Analisamos o uso de métodos Bayesianos em um problema de classificação de padrões de interesse prático para a Receita Federal do Brasil que é caracterizado pela presença de atributos de alta cardinalidade e pela existência de interações relevantes entre eles. Mostramos que a presença de atributos de alta cardinalidade pode facilmente gerar tantas subdivisões no conjunto de treinamento que, mesmo tendo originalmente uma grande quantidade de dados, acabemos obtendo probabilidades pouco confiáveis, inferidas a partir de poucos exemplos. Revisamos as estratégias usualmente adotadas para lidar com esse problema dentro do universo Bayesiano, exibindo sua dependência em suposições de não interação inaceitáveis em nosso domínio alvo. Mostramos empiricamente que estratégias Bayesianas mais avançadas para tratamento de atributos de alta cardinalidade, como pré-processamento para redução de cardinalidade e substituição de tabelas de probabilidades condicionais (CPTs) de redes Bayesianas (BNs) por tabelas default (DFs), árvores de decisão (DTs) e grafos de decisão (DGs) embora tragam benefícios pontuais não resultam em ganho de desempenho geral em nosso domínio alvo. Propomos um novo método Bayesiano de classificação, chamado de hierarchical pattern Bayes (HPB), que calcula probabilidades posteriores para as classes dado um padrão W combinando as observações de W no conjunto de treinamento com probabilidades prévias que são obtidas recursivamente a partir das observações de padrões estritamente mais genéricos que W. Com esta estratégia, ele consegue capturar interações entre atributos de alta cardinalidade quando há dados suficientes para tal, sem gerar probabilidades pouco confiáveis quando isso não ocorre. Mostramos empiricamente que, em nosso domínio alvo, o HPB traz benefícios significativos com relação a redes Bayesianas com estruturas populares como o naïve Bayes e o tree augmented naïve Bayes, com relação a redes Bayesianas (BNs) onde as tabelas de probabilidades condicionais foram substituídas pelo noisy-OR, por DFs, por DTs e por DGs, e com relação a BNs construídas, após uma fase de redução de cardinalidade usando o agglomerative information bottleneck. Além disso, explicamos como o HPB, pode substituir CPTs e mostramos com testes em outro problema de interesse prático que esta substituição pode trazer ganhos significativos. Por fim, com testes em vários conjuntos de dados públicos da UCI, mostramos que a utilidade do HPB ser bastante ampla / Abstract: In this work, we analyze the use of Bayesian methods in a pattern classification problem of practical interest for Brazil¿s Federal Revenue which is characterized by the presence of high cardinality attributes and by the existence of relevant interactions among them.We show that the presence of high cardinality attributes can easily produce so many subdivisions in the training set that, even having originally a great amount of data, we end up with unreliable probability estimates, inferred from small samples. We cover the most common strategies to deal with this problem within the Bayesian universe and show that they rely strongly on non interaction assumptions that are unacceptable in our target domain. We show empirically that more advanced strategies to handle high cardinality attributes like cardinality reduction by preprocessing and conditional probability tables replacement with default tables, decision trees and decision graphs, in spite of some restricted benefits, do not improve overall performance in our target domain. We propose a new Bayesian classification method, named hierarchical pattern Bayes (HPB), which calculates posterior class probabilities given a pattern W combining the observations of W in the training set with prior class probabilities that are obtained recursively from the observations of patterns that are strictly more generic than W. This way, it can capture interactions among high cardinality attributes when there is enough data, without producing unreliable probabilities when there is not. We show empirically that, in our target domain, HPB achieves significant performance improvements over Bayesian networks with popular structures like naïve Bayes and tree augmented naïve Bayes, over Bayesian networks where traditional conditional probability tables were substituted by noisy-OR gates, default tables, decision trees and decision graphs, and over Bayesian networks constructed after a cardinality reduction preprocessing phase using the agglomerative information bottleneck method. Moreover, we explain how HPB can replace conditional probability tables of Bayesian Networks and show, with tests in another practical problem, that such replacement can result in significant benefits. At last, with tests over several UCI datasets we show that HPB may have a quite wide applicability / Doutorado / Sistemas de Informação / Doutor em Ciência da Computação
445

Detecção e classificação de objetos em imagens para rastreamento de veículos / Detection and classification of objects in images for vehicle tracking

Raphael Montanari 28 August 2015 (has links)
A robótica é uma área multidisciplinar que cresce continuamente com a contribuição do avanço científico e aumento frequente do poder computacional do hardware. As pesquisas em robótica estão divididas em diversas linhas de investigação. A visão computacional é uma das linhas de pesquisa de grande interesse devido à farta variedade de métodos e técnicas oferecidas. Um dos maiores desafios para os robôs é descobrir e analisar o ambiente em que estão inseridos. Dentre os principais sensores que podem ser utilizados, as câmeras digitais oferecem um bom benefício: podem ser leves, pequenas e baratas, características fundamentais para alguns robôs. Este trabalho propõe o desenvolvimento e análise de um sistema de visão computacional para rastrear veículos usando sistemas de detecção e classificação de segmentos em imagens. Para atingir os objetivos são investigados métodos de extração de informações das imagens, modelos de atenção visual e modelos de aprendizado bioinspirados para detecção e classificação de veículos. Para a tarefa de atenção visual foram utilizadas as técnicas de geração de mapas de saliência iNVT e VOCUS2, enquanto que para classificação foi empregada a técnicas bag-of-features e finalmente, para o rastreamento do veículo especificado, durante seu percurso em uma rodovia, foi adotada a técnica Camshift com filtro de Kalman. O sistema desenvolvido foi implementado com um robô aéreo e testado com imagens reais contendo diferentes veículos em uma rodovia e os resultados de classificação e rastreamento obtidos foram muito satisfatórios. / Robotics is a multidisciplinary area that continually grows with the contribution of scientific advancement and frequent increase in computational hardware power. Research in robotics are divided into several lines of investigation. Computer vision is one of the research areas of great interest due to the abundant variety of methods and techniques offered. One of the biggest challenges for the robots is to discover and analyze the environment in which they are inserted. Among the main sensors that can be used, digital cameras offer good benefits: they can be lightweitgh, small and cheap, which are fundamental characteristics for some robots. This work undertakes the development and analysis of a computer vision system to track vehicles by detecting and classifying segments in imaging systems. To achieve the objectives, methods on image information extraction, visual attention models and bioinspired learning models were studied for detection and classification of vehicles. For the task of visual attention the INVT and VOCUS2 models were used to generate saliency maps, while for classification was applied the bag-of-features method and finally to track the specified vehicle during its journey on a highway, it was adopted CamShift technique joint with a Kalman filter. The developed system was implemented with an aerial robot and tested with real images containing different vehicles on a highway and the results of classification and tracking obtained were very satisfactory.
446

"O framework de integração do sistema DISCOVER" / The Discover integration framework

Ronaldo Cristiano Prati 04 April 2003 (has links)
Talvez uma das maiores capacidades do ser humano seja a sua habilidade de aprender a partir de observações e transmitir o que aprendeu para outros humanos. Durante séculos, a humanidade vem tentado compreender o mundo em que vive e, a partir desse novo conhecimento adquirido, melhorar o mundo em que vive. O desenvolvimento da tecnologia colocou a descoberta de conhecimento em um momento ímpar na história da humanidade. Com os progressos da Ciência da Computação, e, em particular, da Inteligência Artificial - IA - e Aprendizado de Máquina -AM, hoje em dia é possível, a partir de métodos de inferência indutiva e utilizando um conjunto de exemplos, descobrir algum tipo de conhecimento implícito nesses exemplos. Entretanto, por ser uma área de pesquisa relativamente nova, e por envolver um processo tanto iterativo quanto interativo, atualmente existem poucas ferramentas que suportam eficientemente a descoberta de conhecimento a partir dos dados. Essa falta de ferramentas se agrava ainda mais no que se refere ao seu uso por pesquisadores em Aprendizado de Máquina e Aquisição de Conhecimento. Esses fatores, além do fato que algumas pesquisas em nosso Laboratório de Inteligência Computacional - LABIC - têm alguns componentes em comum, motivaram a elaboração do projeto Discover, que consiste em uma estratégia de trabalho em conjunto, envolvendo um conjunto de ferramentas que se integram e interajam, e que supram as necessidades de pesquisa dos integrantes do nosso laboratório. O Discover também pode ser utilizado como um campo de prova para desenvolver novas ferramentas e testar novas idéias. Como o Discover tem como principal finalidade o seu uso e extensão por pesquisadores, uma questão principal é que a arquitetura do projeto seja flexível o suficiente para permitir que novas pesquisas sejam englobadas e, simultaneamente, deve impor determinados padrões que permitam a integração eficiente de seus componentes. Neste trabalho, é proposto um framework de integração de componentes que tem como principal objetivo possibilitar a criação de um sistema computacional a partir das ferramentas desenvolvidas para serem utilizadas no projeto Discover. Esse framework compreende um mecanismo de adaptação de interface que cria uma camada (interface horizontal) sobre essas ferramentas, um poderoso mecanismo de metadados, que é utilizado para descrever tanto os componentes que implementam as funcionalidades do sistema quanto as configurações de experimentos criadas pelos usuário, que serão executadas pelo framework, e um ambiente de execução para essas configurações de experimentos. / One of human greatest capability is the ability to learn from observed instances of the world and to transmit what have been learnt to others. For thousands of years, we have tried to understand the world, and used the acquired knowledge to improve it. Nowadays, due to the progress in digital data acquisition and storage technology as well as significant progress in the field of Artificial Intelligence - AI, particularly Machine Learning - ML, it is possible to use inductive inference in huge databases in order to find, or discover, new knowledge from these data. The discipline concerned with this task has become known as Knowledge Discovery from Databases - KDD. However, this relatively new research area offers few tools that can efficiently be used to acquire knowledge from data. With these in mind, a group of researchers at the Computational Intelligence Laboratory - LABIC - is working on a system, called Discover, in order to help our research activities in KDD and ML. The aim of the system is to integrate ML algorithms mostly used by the community with the data and knowledge processing tools developed as the results of our work. The system can also be used as a workbench for new tools and ideas. As the main concern of the Discover is related to its use and extension by researches, an important question is related to the flexibility of its architecture. Furthermore, the Discover architecture should allow new tools be easily incorporated. Also, it should impose strong patterns to guarantee efficient component integration. In this work, we propose a component integration framework that aims the development of an integrated computational environment using the tools already implemented in the Discover project. The proposed component integration framework has been developed keeping in mind its future integration with new tools. This framework offers an interface adapter mechanism that creates a layer (horizontal interface) over these tools, a powerful metadata mechanism, which is used to describe both components implementing systems' functionalities and experiment configurations created by the user, and an environment that enables these experiment execution.
447

Algoritmos evolutivos para modelos de mistura de gaussianas em problemas com e sem restrições / Evolutionary algorithms for gausian mixture models with and without constraints

Thiago Ferreira Covões 09 December 2014 (has links)
Nesta tese, são estudados algoritmos para agrupamento de dados, com particular ênfase em Agrupamento de Dados com Restrições, no qual, além dos objetos a serem agrupados, são fornecidos pelo usuário algumas informações sobre o agrupamento desejado. Como fundamentação para o agrupamento, são considerados os modelos de mistura finitos, em especial, com componentes gaussianos, usualmente chamados de modelos de mistura de gaussianas. Dentre os principais problemas que os algoritmos desenvolvidos nesta tese de doutorado buscam tratar destacam-se: (i) estimar parâmetros de modelo de mistura de gaussianas; (ii) como incorporar, de forma eficiente, restrições no processo de aprendizado de forma que tanto os dados quanto as restrições possam ser adicionadas de forma online; (iii) estimar, via restrições derivadas de conceitos pré-determinados sobre os objetos (usualmente chamados de classes), o número de grupos destes conceitos. Como ferramenta para auxiliar no desenvolvimento de soluções para tais problemas, foram utilizados algoritmos evolutivos que operam com mais de uma solução simultaneamente, além de utilizarem informações de soluções anteriores para guiar o processo de busca. Especificamente, foi desenvolvido um algoritmo evolutivo baseado na divisão e união de componentes para a estimação dos parâmetros de um modelo de mistura de gaussianas. Este algoritmo foi comparado com o algoritmo do mesmo gênero considerado estado-da-arte na literatura, apresentando resultados competitivos e necessitando de menos parâmetros e um menor custo computacional. Nesta tese, foram desenvolvidos dois algoritmos que incorporam as restrições no processo de agrupamento de forma online. Ambos os algoritmos são baseados em algoritmos bem-conhecidos na literatura e apresentaram, em comparações empíricas, resultados melhores que seus antecessores. Finalmente, foram propostos dois algoritmos para se estimar o número de grupos por classe. Ambos os algoritmos foram comparados com algoritmos reconhecidos na literatura de agrupamento de dados com restrições, e apresentaram resultados competitivos ou melhores que estes. A estimação bem sucedida do número de grupos por classe pode auxiliar em diversas tarefas de mineração de dados, desde a sumarização dos dados até a decomposição de problemas de classificação em sub-problemas potencialmente mais simples. / In the last decade, researchers have been giving considerable attention to the field of Constrained Clustering. Algorithms in this field assume that along with the objects to be clustered, the user also provides some constraints about which kind of clustering (s)he prefers. In this thesis, two scenarios are studied: clustering with and without constraints. The developments are based on finite mixture models, namely, models with Gaussian components, which are usually called Gaussian Mixture Models (GMMs). In this context the main problems addressed are: (i) parameter estimation of GMMs; (ii) efficiently integrating constraints in the learning process allowing both constraints and the data to be added in the modeling in an online fashion; (iii) estimating, by using constraints derived from pre-determined concepts (usually named classes), the number of clusters per concept. Evolutionary algorithms were adopted to develop solutions for such problems. These algorithms analyze more than one solution simultaneously and use information provided by previous solutions to guide the search process. Specifically, an evolutionary algorithm based on procedures that perform splitting and merging of components to estimate the parameters of a GMM was developed. This algorithm was compared to an algorithm considered as the state-of-the-art in the literature, obtaining competitive results while requiring less parameters and being more computationally efficient. Besides the aforementioned contributions, two algorithms for online constrained clustering were developed. Both algorithms are based on well known algorithms from the literature and get better results than their predecessors. Finally, two algorithms to estimate the number of clusters per class were also developed. Both algorithms were compared to well established algorithms from the literature of constrained clustering, and obtained equal or better results than the ones obtained by the contenders. The successful estimation of the number of clusters per class is helpful to a variety of data mining tasks, such as data summarization and problem decomposition of challenging classification problems.
448

Mineração de dados em redes complexas: estrutura e dinâmica / Data mining in complex networks: structure and dynamics

Guilherme Ferraz de Arruda 02 April 2013 (has links)
A teoria das redes complexas é uma área altamente interdisciplinar que oferece recursos para o estudo dos mais variados tipos de sistemas complexos, desde o cérebro até a sociedade. Muitos problemas da natureza podem ser modelados como redes, tais como: as interações protéicas, organizações sociais, o mercado financeiro, a Internet e a World Wide Web. A organização de todos esses sistemas complexos pode ser representada por grafos, isto é, vértices conectados por arestas. Tais topologias têm uma influencia fundamental sobre muitos processos dinâmicos. Por exemplo, roteadores altamente conectados são fundamentais para manter o tráfego na Internet, enquanto pessoas que possuem um grande número de contatos sociais podem contaminar um grande número de outros indivíduos. Ao mesmo tempo, estudos têm mostrado que a estrutura do cérebro esta relacionada com doenças neurológicas, como a epilepsia, que está ligada a fenômenos de sincronização. Nesse trabalho, apresentamos como técnicas de mineração de dados podem ser usadas para estudar a relação entre topologias de redes complexas e processos dinâmicos. Tal estudo será realizado com a simulação de fenômenos de sincronização, falhas, ataques e propagação de epidemias. A estrutura das redes será caracterizada através de métodos de mineração de dados, que permitirão classificar redes de acordo com um conjunto de modelos e determinar padrões de conexões presentes na organização de diferentes tipos de sistemas complexos. As análises serão realizadas com aplicações em neurociências, biologia de sistemas, redes sociais e Internet / The theory of complex networks is a highly interdisciplinary reseach area offering resources for the study of various types of complex systems, from the brain to the society. Many problems of nature can be modeled as networks, such as protein interactions, social organizations, the financial market, the Internet and World Wide Web. The organization of all these complex systems can be represented by graphs, i.e. a set of vertices connected by edges. Such topologies have a fundamental influence on many dynamic processes. For example, highly connected routers are essential to keep traffic on the Internet, while people who have a large number of social contacts may infect many other individuals. Indeed, studies have shown that the structure of brain is related to neurological conditions such as epilepsy, which is relatad to synchronization phenomena. In this text, we present how data mining techniques data can be used to study the relation between complex network topologies and dynamic processes. This study will be conducted with the simulation of synchronization, failures, attacks and the epidemics spreading. The structure of the networks will be characterized by data mining methods, which allow classifying according to a set of theoretical models and to determine patterns of connections present in the organization of different types of complex systems. The analyzes will be performed with applications in neuroscience, systems biology, social networks and the Internet
449

Meta-aprendizado aplicado a fluxos contínuos de dados / Metalearning for algorithm selection in data strams

Andre Luís Debiaso Rossi 19 December 2013 (has links)
Algoritmos de aprendizado de máquina são amplamente empregados na indução de modelos para descoberta de conhecimento em conjuntos de dados. Como grande parte desses algoritmos assume que os dados são gerados por uma função de distribuição estacionária, um modelo é induzido uma única vez e usado indefinidamente para a predição do rótulo de novos dados. Entretanto, atualmente, diversas aplicações, como gerenciamento de transportes e monitoramento por redes de sensores, geram fluxos contínuos de dados que podem mudar ao longo do tempo. Consequentemente, a eficácia do algoritmo escolhido para esses problemas pode se deteriorar ou outros algoritmos podem se tornar mais apropriados para as características dos novos dados. Nesta tese é proposto um método baseado em meta-aprendizado para gerenciar o processo de aprendizado em ambientes dinâmicos de fluxos contínuos de dados com o objetivo de melhorar o desempenho preditivo do sistema de aprendizado. Esse método, denominado MetaStream, seleciona regularmente o algoritmo mais promissor para os dados que estão chegando, de acordo com as características desses dados e de experiências passadas. O método proposto emprega técnicas de aprendizado de máquina para gerar o meta-conhecimento, que relaciona as características extraídas dos dados em diferentes instantes do tempo ao desempenho preditivo dos algoritmos. Entre as medidas usadas para extrair informação relevante dos dados, estão aquelas comumente empregadas em meta-aprendizado convencional com diferentes conjuntos de dados, que são adaptadas para as especificidades do cenário de fluxos, e de áreas correlatas, que consideram, por exemplo, a ordem de chegada dos dados. O MetaStream é avaliado para três conjuntos de dados reais e seis algoritmos de aprendizado diferentes. Os resultados mostram a aplicabilidade do MetaStream e sua capacidade de melhorar o desempenho preditivo geral do sistema de aprendizado em relação a um método de referência para a maioria dos problemas investigados. Deve ser observado que uma combinação de modelos mostrou-se superior ao MetaStream para dois conjuntos de dados. Assim, foram analisados os principais fatores que podem ter influenciado nos resultados observados e são indicadas possíveis melhorias do método proposto / Machine learning algorithms are widely employed to induce models for knowledge discovery in databases. Since most of these algorithms suppose that the underlying distribution of the data is stationary, a model is induced only once e it is applied to predict the label of new data indefinitely. However, currently, many real applications, such as transportation management systems and monitoring of sensor networks, generate data streams that can change over time. Consequently, the effectiveness of the algorithm chosen for these problems may deteriorate or other algorithms may become more suitable for the new data characteristics. This thesis proposes a metalearning based method for the management of the learning process in dynamic environments of data streams aiming to improve the general predictive performance of the learning system. This method, named MetaStream, regularly selects the most promising algorithm for arriving data according to its characteristics and past experiences. The proposed method employs machine learning techniques to generate metaknowledge, which relates the characteristics extracted from data in different time points to the predictive performance of the algorithms. Among the measures applied to extract relevant information are those commonly used in conventional metalearning for different data sets, which are adapted for the data stream particularities, and from other related areas that consider the order of the data stream. We evaluate MetaStream for three real data stream problems and six different learning algorithms. The results show the applicability of the MetaStream and its capability to improve the general predictive performance of the learning system compared to a baseline method for the majority of the cases investigated. It must be observed that an ensemble of models is usually superior to MetaStream. Thus, we analyzed the main factors that may have influenced the results and indicate possible improvements for the proposed method
450

Empregando técnicas de visualização de informação para transformação interativa de dados multidimensionais / Transforming muldimensional data using information visualization techniques

Francisco Morgani Fatore 27 July 2015 (has links)
A exploração de conjuntos de dados é um problema abordado com frequência em diversos domínios e tem como objetivo uma melhor compreensão de fenômenos simulados ou medidos. Tal atividade é precedida pelas etapas de coleta e armazenamento de dados que buscam registrar o máximo de detalhes sobre algum fenômeno observado. Porém, a exploração efetiva dos dados envolve uma série de desafios. Um deles é a dificuldade em identificar quais dados são realmente relevantes para as análises. Outro problema está relacionado com a falta de garantias de que os fatores fundamentais para a compreensão do problema tenham sido coletados. A transformação interativa de dados é uma abordagem que utiliza técnicas de visualização computacional para resolver ou minimizar esses problemas. No entanto, os trabalhos disponíveis na literatura possuem limitações, como interfaces demasiadamente complexas e mecanismos de interação pouco flexíveis. Assim, este projeto de mestrado teve como objetivo desenvolver novas técnicas visuais interativas para a transformação de dados multidimensionais. A metodologia desenvolvida se baseou no uso de biplots e na ação conjunta dos mecanismos de interação para superar as limitações das técnicas do estado da arte. Os resultados dos experimentos realizados sobre diversos conjuntos de dados dão indícios de que os métodos desenvolvidos possibilitam a obtenção de conjuntos de dados mais representativos. Mais especificamente, foram obtidos melhores resultados em tarefas de classificação de dados ao utilizar os métodos desenvolvidos. / The exploration of datasets is a frequently task in several fields and aims at a better understanding of simulated or measured phenomena. Such activity is preceded by the steps of collecting and storing data, which seek to record as much detail possible about an observed phenomenon. The exploration task is challenging due to many aspects. One of them is the difficulty in identifying which collected data are actually relevant to the analysis. Another one is related to the lack of guarantees that the key factors for understanding the problem have been collected. The interactive transformation of data is a visual based approach that seeks to solve or mitigate these problems. However, the available methods in the literature have limitations in several aspects, such as complex user interfaces and inflexible interactive mechanisms. So, this master project had the goal to develop novel visual techniques for the transformation of datasets. The proposed methodology was based on the use of biplots and interaction mechanisms to overcome the limitations of the state of the art techniques. Empirical results show that by using the proposed approach, it is possible to make the data more representative. Therefore, exploratory activities, classifications, were performed more efficiently and thus provided better results.

Page generated in 0.054 seconds