• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 6
  • 1
  • Tagged with
  • 17
  • 17
  • 14
  • 7
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estudo da distribuicao de ocorrencias de instrucoes em grafos de dependencia de dados da arquitetura Wolf / Not available

Vicentini, Wilson Bittencourt 16 October 1996 (has links)
As arquiteturas Dataflow apresentam características baseadas em um modelo cujo controle de execução e feito pela disponibilidade dos dados, possibilitando a exploração de paralelismo implícito em um programa. Para contextualizar o trabalho, são apresentadas as principais implementações em fluxo de dados. Este trabalho estuda a distribuição da ocorrência de instruções em Grafos de Dependência de Dados da arquitetura Wolf desenvolvida no IFSC. O estudo realizado concluiu que existe urna grande concentração na utilização das instruções por parte dessa arquitetura: das cento e uma instruções da maquina, cinco apresentam, em media, de trinta por cento a cinqüenta por cento do total. Essa popularidade de instruções ocorre em todas as formas de analise e para todos os benckmarks investigados. Os resultados desse trabalho fornecem uma base para a implementação mais eficiente dessas arquiteturas, e indicam que qualquer mecanismo que explore essa popularidade, produzirá ganho / The Dataflow architecture presents characteristics based on a model in which execution control is done by the data availability, making the exploitation of the implicit parallelism possible in a program. The main implementation in data flux is showed, having in view to put it inside the work\'s context. This work studies the distribution of the occurrence of the instructions in Graphs of Data Dependence of the Wolf architecture developed at IFSC. The present study concluded that there is a large concentration on the utilizations of the instructions in this architecture: from the one hundred and one instructions of the machine, five present, in average, from thirty to fifty per cent of the total. This popularity of instructions occurs in all forms of analysis and for all investigated benckmarks. The results of this work furnish a base for a more efficient implementation of these architectures and they indicate that any mechanism, which explores this popularity, will produce gains
2

Estudo da distribuicao de ocorrencias de instrucoes em grafos de dependencia de dados da arquitetura Wolf / Not available

Wilson Bittencourt Vicentini 16 October 1996 (has links)
As arquiteturas Dataflow apresentam características baseadas em um modelo cujo controle de execução e feito pela disponibilidade dos dados, possibilitando a exploração de paralelismo implícito em um programa. Para contextualizar o trabalho, são apresentadas as principais implementações em fluxo de dados. Este trabalho estuda a distribuição da ocorrência de instruções em Grafos de Dependência de Dados da arquitetura Wolf desenvolvida no IFSC. O estudo realizado concluiu que existe urna grande concentração na utilização das instruções por parte dessa arquitetura: das cento e uma instruções da maquina, cinco apresentam, em media, de trinta por cento a cinqüenta por cento do total. Essa popularidade de instruções ocorre em todas as formas de analise e para todos os benckmarks investigados. Os resultados desse trabalho fornecem uma base para a implementação mais eficiente dessas arquiteturas, e indicam que qualquer mecanismo que explore essa popularidade, produzirá ganho / The Dataflow architecture presents characteristics based on a model in which execution control is done by the data availability, making the exploitation of the implicit parallelism possible in a program. The main implementation in data flux is showed, having in view to put it inside the work\'s context. This work studies the distribution of the occurrence of the instructions in Graphs of Data Dependence of the Wolf architecture developed at IFSC. The present study concluded that there is a large concentration on the utilizations of the instructions in this architecture: from the one hundred and one instructions of the machine, five present, in average, from thirty to fifty per cent of the total. This popularity of instructions occurs in all forms of analysis and for all investigated benckmarks. The results of this work furnish a base for a more efficient implementation of these architectures and they indicate that any mechanism, which explores this popularity, will produce gains
3

Classificação de tráfego baseado em mineração de fluxos de dados

Lopes Junior, Petrônio Gomes 31 January 2012 (has links)
Made available in DSpace on 2014-06-12T16:01:31Z (GMT). No. of bitstreams: 2 arquivo9422_1.pdf: 1276132 bytes, checksum: 3774a722066d704630a96e348e110df1 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2012 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / Existem diversos tipos de aplicações de redes de computadores que produzem diferentes perfis de tráfego. Para aperfeiçoar o desempenho destas aplicações ou da rede em que elas estão incluídas, é interessante fazer medições e caracterizações do tráfego gerado por elas. Nesse contexto, existem várias formas para classificação de tráfego como técnicas baseadas em portas, técnicas baseadas em inspeção de pacotes e técnicas baseadas em fluxos. De acordo com o cenário em que será aplicada, cada uma das técnicas apresenta vantagens e desvantagens. Adicionalmente, a classificação tem que lidar com restrições de tempo, sendo capaz de tratar os dados em tempo real. Um possível método a ser utilizado é a classificação de tráfego baseada em fluxos utilizando aprendizagem de máquina. No entanto, é notório que, quando se fala na classificação de fluxos usando aprendizagem de máquina, a caracterização de tráfego ainda necessita de uma abordagem que seja capaz de fornecer uma forma adaptativa de treinamento além de equilibrar precisão e desempenho em um cenário de fluxo contínuo de dados. Este trabalho apresenta um algoritmo voltado para classificação do tráfego baseado em técnicas de mineração de fluxos de dados aplicado a redes de alta velocidade, denominado GSDT (GPU-based Streaming Decision Tree), além de um arcabouço para sua aplicação. Esse algoritmo visa combinar a precisão das árvores de decisão tradicionais com as características da mineração de fluxos de dados. O GSDT também explora o potencial computacional fornecido por uma unidade de processamento gráfico. O arcabouço proposto alia treinamento e classificação, a fim de obter ganhos no desempenho da utilização do algoritmo em um ambiente real. Os experimentos realizados avaliam a precisão do GSDT em relação às técnicas tradicionais e o desempenho das abordagens propostas, demonstrando a viabilidade da aplicação do GSDT nos cenários considerados e a alta performance obtida através da unidade de processamento gráfico
4

Mineração de fluxos contínuos de dados para jogos de computador / Data stream mining for computer games

Vallim, Rosane Maria Maffei 11 July 2013 (has links)
Um dos desafios da Inteligência Artificial aplicada em jogos é o aprendizado de comportamento, em que o objetivo é utilizar estatísticas obtidas da interação entre jogador e jogo de modo a reconhecer características particulares de um jogador ou monitorar a evolução de seu comportamento no decorrer do tempo. A maior parte dos trabalhos na área emprega modelos previamente aprendidos, por meio da utilização de algoritmos de Aprendizado de Máquina. Entretanto, são poucos os trabalhos que consideram que o comportamento de um jogador pode evoluir no tempo e que, portanto, reconhecer quando essas mudanças ocorrem é o primeiro passo para produzir jogos que se adaptam automaticamente às capacidades do jogador. Para detectar variações comportamentais em um jogador, são necessários algoritmos que processem dados de modo incremental. Esse pré-requisito motiva o estudo de algoritmos para detecção de mudanças da área de Mineração em Fluxos Contínuos de Dados. Entretanto, algumas das características dos algoritmos disponíveis na literatura inviabilizam sua aplicação direta ao problema de detecção de mudança em jogos. Visando contornar essas dificuldades, esta tese propõe duas novas abordagens para detecção de mudanças de comportamento. A primeira abordagem é baseada em um algoritmo incremental de agrupamento e detecção de novidades que é independente do número e formato dos grupos presentes nos dados e que utiliza um mecanismo de janela deslizante para detecção de mudanças de comportamento. A segunda abordagem, por outro lado, é baseada na comparação de janelas de tempo consecutivas utilizando espectrogramas gerados a partir dos dados contidos em cada janela. Os resultados experimentais utilizando simulações e dados de jogos comerciais indicam a aplicabilidade dos algoritmos propostos na tarefa de detecção de mudanças de comportamento de um jogador, assim como mostram sua vantagem em relação a outros algoritmos para detecção de mudança disponíveis na literatura / One of the challenges of Artificial Intelligence applied to games is behavior learning, where the objective is to use statistics derived from the interaction between the player and the game environment in order to recognize particular player characteristics or to monitor the evolution of a players behavior along time. The majority of work developed in this area applies models that were previously learned through the use of Machine Learning techniques. However, only a few pieces of work consider that the players behavior can evolve over time and, therefore, recognizing when behavior changes happen is the first step towards the production of games that adapt to the players needs. In order to detect changes in the behavior of a player, incremental algorithms are necessary, what motivates the study of change detection algorithms from the area of Data Stream Mining. However, some of the characteristics of the algorithms available in the literature make their application to the task of change detection in games unfeasible. To overcome these difficulties, this work proposes two new approaches for change detection. The first approach is based on an incremental clustering and novelty detection algorithm which is independent of the number and format of clusters and uses a mechanism for change detection based on sliding windows. The second approach, on the other hand, is based on the comparison of consecutive time windows using spectrograms created from the data inside each window. Experimental results using simulations and data from commercial games indicate the applicability of the proposed algorithms in the task of detecting a players changing behavior, as well as present their advantage when compared to other change detection algorithms available in the literature
5

Projeções multidimensionais para a análise de fluxos de dados / Multidimensional projections for data stream analysis

Neves, Tácito Trindade de Araújo Tiburtino 17 November 2016 (has links)
As técnicas de projeção multidimensional tornaram-se uma ferramenta de análise importante. Elas buscam mapear dados de um espaço multidimensional para um espaço visual, de menor dimensão, preservando as estruturas de distância ou de vizinhança no mapa visual produzido. Apesar dos recentes avanços, as técnicas existentes ainda apresentam deficiências que prejudicam a sua utilização como ferramentas exploratórias em certos domínios. Um exemplo está nos cenários streaming, nos quais os dados são produzidos e/ou coletados de forma contínua. Como a maioria das técnicas de projeção necessitam percorrer os dados mais de uma vez para produzir um layout final, e fluxos normalmente não podem ser carregados por completo em memória principal, a aplicação direta ou mesmo a adaptação das técnicas existentes em tais cenários é inviável. Nessa tese de doutorado é apresentado um novo modelo de projeção, chamado de Xtreaming, no qual as instâncias de dados são visitadas apenas uma vez durante o processo de projeção. Esse modelo é capaz de se adaptar a mudanças nos dados conforme eles são recebidos, atualizando o mapa visual para refletir as novas estruturas que surgem ao longo do tempo. Os resultados dos testes mostram que o Xtreaming é muito competitivo em termos de preservação de distâncias e tempo de execução se comparado com técnicas do estado-da-arte. Também é apresentada uma nova técnica de projeção multidimensional, chamada de User-assisted Projection Technique for Distance Information (UPDis), que foi projetada para permitir a intervenção do usuário exigindo apenas informações de distância entre as instâncias, e que é utilizada como parte do Xtreaming. Os resultados também mostram que a UPDis é tão rápida, precisa e flexível quanto as técnicas do estado-da-arte. / Multidimensional Projection techniques have become an important analytics tool. They map data from a multidimensional space into a visual space preserving the distance or neighborhood structures on the produced layout. Despite the recent advances, existing techniques still present drawbacks that impair their use as exploratory tools on certain domains. An example is the streaming scenario, in which data are captured or produced continuously. Since most projection techniques need to traverse the data more than once to produce a final layout, and streaming data typically cannot be completely loaded into the main memory, the direct use or even adaptation of the existing techniques in such scenarios is infeasible. In this dissertation, we present a novel projection model, called Xtreaming, wherein the data instances are visited only once during the projection process. This model is able to adapt itself to the changes in data as data is received, updating the visual layout to reflect the new structures that emerge over time. The tests show that Xtreaming is very competitive regarding distance preservation and running time when compared with state-of-the-art projection techniques. We also present a new multidimensional projection technique, called User-assisted Projection Technique for Distance Information (UPDis), that was designed to allow user intervention requiring only distance information between data instances. UPDis is used as part of the Xtreaming model. The results show that UPDis is as fast, accurate and flexible as state-of-the-art techniques.
6

Mineração de fluxos contínuos de dados para jogos de computador / Data stream mining for computer games

Rosane Maria Maffei Vallim 11 July 2013 (has links)
Um dos desafios da Inteligência Artificial aplicada em jogos é o aprendizado de comportamento, em que o objetivo é utilizar estatísticas obtidas da interação entre jogador e jogo de modo a reconhecer características particulares de um jogador ou monitorar a evolução de seu comportamento no decorrer do tempo. A maior parte dos trabalhos na área emprega modelos previamente aprendidos, por meio da utilização de algoritmos de Aprendizado de Máquina. Entretanto, são poucos os trabalhos que consideram que o comportamento de um jogador pode evoluir no tempo e que, portanto, reconhecer quando essas mudanças ocorrem é o primeiro passo para produzir jogos que se adaptam automaticamente às capacidades do jogador. Para detectar variações comportamentais em um jogador, são necessários algoritmos que processem dados de modo incremental. Esse pré-requisito motiva o estudo de algoritmos para detecção de mudanças da área de Mineração em Fluxos Contínuos de Dados. Entretanto, algumas das características dos algoritmos disponíveis na literatura inviabilizam sua aplicação direta ao problema de detecção de mudança em jogos. Visando contornar essas dificuldades, esta tese propõe duas novas abordagens para detecção de mudanças de comportamento. A primeira abordagem é baseada em um algoritmo incremental de agrupamento e detecção de novidades que é independente do número e formato dos grupos presentes nos dados e que utiliza um mecanismo de janela deslizante para detecção de mudanças de comportamento. A segunda abordagem, por outro lado, é baseada na comparação de janelas de tempo consecutivas utilizando espectrogramas gerados a partir dos dados contidos em cada janela. Os resultados experimentais utilizando simulações e dados de jogos comerciais indicam a aplicabilidade dos algoritmos propostos na tarefa de detecção de mudanças de comportamento de um jogador, assim como mostram sua vantagem em relação a outros algoritmos para detecção de mudança disponíveis na literatura / One of the challenges of Artificial Intelligence applied to games is behavior learning, where the objective is to use statistics derived from the interaction between the player and the game environment in order to recognize particular player characteristics or to monitor the evolution of a players behavior along time. The majority of work developed in this area applies models that were previously learned through the use of Machine Learning techniques. However, only a few pieces of work consider that the players behavior can evolve over time and, therefore, recognizing when behavior changes happen is the first step towards the production of games that adapt to the players needs. In order to detect changes in the behavior of a player, incremental algorithms are necessary, what motivates the study of change detection algorithms from the area of Data Stream Mining. However, some of the characteristics of the algorithms available in the literature make their application to the task of change detection in games unfeasible. To overcome these difficulties, this work proposes two new approaches for change detection. The first approach is based on an incremental clustering and novelty detection algorithm which is independent of the number and format of clusters and uses a mechanism for change detection based on sliding windows. The second approach, on the other hand, is based on the comparison of consecutive time windows using spectrograms created from the data inside each window. Experimental results using simulations and data from commercial games indicate the applicability of the proposed algorithms in the task of detecting a players changing behavior, as well as present their advantage when compared to other change detection algorithms available in the literature
7

Projeções multidimensionais para a análise de fluxos de dados / Multidimensional projections for data stream analysis

Tácito Trindade de Araújo Tiburtino Neves 17 November 2016 (has links)
As técnicas de projeção multidimensional tornaram-se uma ferramenta de análise importante. Elas buscam mapear dados de um espaço multidimensional para um espaço visual, de menor dimensão, preservando as estruturas de distância ou de vizinhança no mapa visual produzido. Apesar dos recentes avanços, as técnicas existentes ainda apresentam deficiências que prejudicam a sua utilização como ferramentas exploratórias em certos domínios. Um exemplo está nos cenários streaming, nos quais os dados são produzidos e/ou coletados de forma contínua. Como a maioria das técnicas de projeção necessitam percorrer os dados mais de uma vez para produzir um layout final, e fluxos normalmente não podem ser carregados por completo em memória principal, a aplicação direta ou mesmo a adaptação das técnicas existentes em tais cenários é inviável. Nessa tese de doutorado é apresentado um novo modelo de projeção, chamado de Xtreaming, no qual as instâncias de dados são visitadas apenas uma vez durante o processo de projeção. Esse modelo é capaz de se adaptar a mudanças nos dados conforme eles são recebidos, atualizando o mapa visual para refletir as novas estruturas que surgem ao longo do tempo. Os resultados dos testes mostram que o Xtreaming é muito competitivo em termos de preservação de distâncias e tempo de execução se comparado com técnicas do estado-da-arte. Também é apresentada uma nova técnica de projeção multidimensional, chamada de User-assisted Projection Technique for Distance Information (UPDis), que foi projetada para permitir a intervenção do usuário exigindo apenas informações de distância entre as instâncias, e que é utilizada como parte do Xtreaming. Os resultados também mostram que a UPDis é tão rápida, precisa e flexível quanto as técnicas do estado-da-arte. / Multidimensional Projection techniques have become an important analytics tool. They map data from a multidimensional space into a visual space preserving the distance or neighborhood structures on the produced layout. Despite the recent advances, existing techniques still present drawbacks that impair their use as exploratory tools on certain domains. An example is the streaming scenario, in which data are captured or produced continuously. Since most projection techniques need to traverse the data more than once to produce a final layout, and streaming data typically cannot be completely loaded into the main memory, the direct use or even adaptation of the existing techniques in such scenarios is infeasible. In this dissertation, we present a novel projection model, called Xtreaming, wherein the data instances are visited only once during the projection process. This model is able to adapt itself to the changes in data as data is received, updating the visual layout to reflect the new structures that emerge over time. The tests show that Xtreaming is very competitive regarding distance preservation and running time when compared with state-of-the-art projection techniques. We also present a new multidimensional projection technique, called User-assisted Projection Technique for Distance Information (UPDis), that was designed to allow user intervention requiring only distance information between data instances. UPDis is used as part of the Xtreaming model. The results show that UPDis is as fast, accurate and flexible as state-of-the-art techniques.
8

Utilização de filtros em programa de imagem digital / Use of filters in mobile photo-sharing application and services

Azevedo, Telma Luiza de 26 April 2017 (has links)
A imagem concentra a informação ideológica que abrange complexas estruturas que permeiam a vida de milhões de usuários e constituem e constroem a sociedade em nosso tempo. A partir do olhar sobre o panorama atual das práticas fotográficas na sociedade, a dissertação trata da utilização dos filtros, que consistem em ferramentas que o fotógrafo pode utilizar para aplicar diversos efeitos em suas imagens, como, por exemplo, evidenciar cores, alterar os contrastes da cena, modificar foco, aplicar efeitos gráficos, absorver parte da luz que chega a lente, isto é, sobrepor camadas de informação às mesmas, na produção de fotografias compartilhadas em redes sociais. Filtros também se referem ao ato de classificar e selecionar os fluxos de dados em rede referentes a informações públicas ou privadas de usuários ao redor do globo interferindo nas atividades de milhões de indivíduos. Deste modo, a promoção do conhecimento científico de uma esfera da linguagem fotográfica compartilhada, criativa e experimental popularizada pela tecnologia em nossos dias é imprescindível para evidenciar a abrangência do fenômeno e promover ou provocar a reflexão sobre determinantes financeiros que permeiam comportamentos cotidianos e, então, agir sobre os padrões instituídos e não apenas reproduzi-los / The image concentrates the ideological information that encompasses complex structures that permeate the lives of millions of users and constitute and build society in our time. From a look at the current view of the photographic practices in society, the dissertation deals with the use of filters, which consist of tools that the photographer can use to apply various effects to his images, such as highlighting colors, changing contrasts of the scene, modify focus, apply graphic effects, absorb part of the light that reaches the lens, that is, superimpose layers of information on them, in the production of shared photographs in social networks. Filters also refer to the act of classifying and selecting networked data flows for public or private information from users around the globe interfering with the activities of millions of individuals. Thus the promotion of scientific knowledge of a sphere of shared, creative and experimental photographic language popularized by technology in our day is essential to highlight the scope of the phenomenon and to promote or provoke reflection of the financial determinants that permeate habitual behaviors, and so transforming the established standards and not just reproduce them.
9

Employing nonlinear time series analysis tools with stable clustering algorithms for detecting concept drift on data streams / Aplicando ferramentas de análise de séries temporais não lineares e algoritmos de agrupamento estáveis para a detecção de mudanças de conceito em fluxos de dados

Costa, Fausto Guzzo da 17 August 2017 (has links)
Several industrial, scientific and commercial processes produce open-ended sequences of observations which are referred to as data streams. We can understand the phenomena responsible for such streams by analyzing data in terms of their inherent recurrences and behavior changes. Recurrences support the inference of more stable models, which are deprecated by behavior changes though. External influences are regarded as the main agent actuacting on the underlying phenomena to produce such modifications along time, such as new investments and market polices impacting on stocks, the human intervention on climate, etc. In the context of Machine Learning, there is a vast research branch interested in investigating the detection of such behavior changes which are also referred to as concept drifts. By detecting drifts, one can indicate the best moments to update modeling, therefore improving prediction results, the understanding and eventually the controlling of other influences governing the data stream. There are two main concept drift detection paradigms: the first based on supervised, and the second on unsupervised learning algorithms. The former faces great issues due to the labeling infeasibility when streams are produced at high frequencies and large volumes. The latter lacks in terms of theoretical foundations to provide detection guarantees. In addition, both paradigms do not adequately represent temporal dependencies among data observations. In this context, we introduce a novel approach to detect concept drifts by tackling two deficiencies of both paradigms: i) the instability involved in data modeling, and ii) the lack of time dependency representation. Our unsupervised approach is motivated by Carlsson and Memolis theoretical framework which ensures a stability property for hierarchical clustering algorithms regarding to data permutation. To take full advantage of such framework, we employed Takens embedding theorem to make data statistically independent after being mapped to phase spaces. Independent data were then grouped using the Permutation-Invariant Single-Linkage Clustering Algorithm (PISL), an adapted version of the agglomerative algorithm Single-Linkage, respecting the stability property proposed by Carlsson and Memoli. Our algorithm outputs dendrograms (seen as data models), which are proven to be equivalent to ultrametric spaces, therefore the detection of concept drifts is possible by comparing consecutive ultrametric spaces using the Gromov-Hausdorff (GH) distance. As result, model divergences are indeed associated to data changes. We performed two main experiments to compare our approach to others from the literature, one considering abrupt and another with gradual changes. Results confirm our approach is capable of detecting concept drifts, both abrupt and gradual ones, however it is more adequate to operate on complicated scenarios. The main contributions of this thesis are: i) the usage of Takens embedding theorem as tool to provide statistical independence to data streams; ii) the implementation of PISL in conjunction with GH (called PISLGH); iii) a comparison of detection algorithms in different scenarios; and, finally, iv) an R package (called streamChaos) that provides tools for processing nonlinear data streams as well as other algorithms to detect concept drifts. / Diversos processos industriais, científicos e comerciais produzem sequências de observações continuamente, teoricamente infinitas, denominadas fluxos de dados. Pela análise das recorrências e das mudanças de comportamento desses fluxos, é possível obter informações sobre o fenômeno que os produziu. A inferência de modelos estáveis para tais fluxos é suportada pelo estudo das recorrências dos dados, enquanto é prejudicada pelas mudanças de comportamento. Essas mudanças são produzidas principalmente por influências externas ainda desconhecidas pelos modelos vigentes, tal como ocorre quando novas estratégias de investimento surgem na bolsa de valores, ou quando há intervenções humanas no clima, etc. No contexto de Aprendizado de Máquina (AM), várias pesquisas têm sido realizadas para investigar essas variações nos fluxos de dados, referidas como mudanças de conceito. Sua detecção permite que os modelos possam ser atualizados a fim de apurar a predição, a compreensão e, eventualmente, controlar as influências que governam o fluxo de dados em estudo. Nesse cenário, algoritmos supervisionados sofrem com a limitação para rotular os dados quando esses são gerados em alta frequência e grandes volumes, e algoritmos não supervisionados carecem de fundamentação teórica para prover garantias na detecção de mudanças. Além disso, algoritmos de ambos paradigmas não representam adequadamente as dependências temporais entre observações dos fluxos. Nesse contexto, esta tese de doutorado introduz uma nova metodologia para detectar mudanças de conceito, na qual duas deficiências de ambos paradigmas de AM são confrontados: i) a instabilidade envolvida na modelagem dos dados, e ii) a representação das dependências temporais. Essa metodologia é motivada pelo arcabouço teórico de Carlsson e Memoli, que provê uma propriedade de estabilidade para algoritmos de agrupamento hierárquico com relação à permutação dos dados. Para usufruir desse arcabouço, as observações são embutidas pelo teorema de imersão de Takens, transformando-as em independentes. Esses dados são então agrupados pelo algoritmo Single-Linkage Invariante à Permutação (PISL), o qual respeita a propriedade de estabilidade de Carlsson e Memoli. A partir dos dados de entrada, esse algoritmo gera dendrogramas (ou modelos), que são equivalentes a espaços ultramétricos. Modelos sucessivos são comparados pela distância de Gromov-Hausdorff a fim de detectar mudanças de conceito no fluxo. Como resultado, as divergências dos modelos são de fato associadas a mudanças nos dados. Experimentos foram realizados, um considerando mudanças abruptas e o outro mudanças graduais. Os resultados confirmam que a metodologia proposta é capaz de detectar mudanças de conceito, tanto abruptas quanto graduais, no entanto ela é mais adequada para cenários mais complicados. As contribuições principais desta tese são: i) o uso do teorema de imersão de Takens para transformar os dados de entrada em independentes; ii) a implementação do algoritmo PISL em combinação com a distância de Gromov-Hausdorff (chamado PISLGH); iii) a comparação da metodologia proposta com outras da literatura em diferentes cenários; e, finalmente, iv) a disponibilização de um pacote em R (chamado streamChaos) que provê tanto ferramentas para processar fluxos de dados não lineares quanto diversos algoritmos para detectar mudanças de conceito.
10

Biometrics in a data stream context / Biometria em um contexto de fluxo de dados

Pisani, Paulo Henrique 10 March 2017 (has links)
The growing presence of the Internet in day-to-day tasks, along with the evolution of computational systems, contributed to increase data exposure. This scenario highlights the need for safer user authentication systems. An alternative to deal with this is by the use of biometric systems. However, biometric features may change over time, an issue that can affect the recognition performance due to an outdated biometric reference. This effect can be called as template ageing in the area of biometrics and as concept drift in machine learning. It raises the need to automatically adapt the biometric reference over time, a task performed by adaptive biometric systems. This thesis studied adaptive biometric systems considering biometrics in a data stream context. In this context, the test is performed on a biometric data stream, in which the query samples are presented one after another to the biometric system. An adaptive biometric system then has to classify each query and adapt the biometric reference. The decision to perform the adaptation is taken by the biometric system. Among the biometric modalities, this thesis focused on behavioural biometrics, particularly on keystroke dynamics and on accelerometer biometrics. Behavioural modalities tend to be subject to faster changes over time than physical modalities. Nevertheless, there were few studies dealing with adaptive biometric systems for behavioural modalities, highlighting a gap to be explored. Throughout the thesis, several aspects to enhance the design of adaptive biometric systems for behavioural modalities in a data stream context were discussed: proposal of adaptation strategies for the immune-based classification algorithm Self-Detector, combination of genuine and impostor models in the Enhanced Template Update framework and application of score normalization to adaptive biometric systems. Based on the investigation of these aspects, it was observed that the best choice for each studied aspect of the adaptive biometric systems can be different depending on the dataset and, furthermore, depending on the users in the dataset. The different user characteristics, including the way that the biometric features change over time, suggests that adaptation strategies should be chosen per user. This motivated the proposal of a modular adaptive biometric system, named ModBioS, which can choose each of these aspects per user. ModBioS is capable of generalizing several baselines and proposals into a single modular framework, along with the possibility of assigning different adaptation strategies per user. Experimental results showed that the modular adaptive biometric system can outperform several baseline systems, while opening a number of new opportunities for future work. / A crescente presença da Internet nas tarefas do dia a dia, juntamente com a evolução dos sistemas computacionais, contribuiu para aumentar a exposição dos dados. Esse cenário evidencia a necessidade de sistemas de autenticação de usuários mais seguros. Uma alternativa para lidar com isso é pelo uso de sistemas biométricos. Contudo, características biométricas podem mudar com o tempo, o que pode afetar o desempenho de reconhecimento devido a uma referência biométrica desatualizada. Esse efeito pode ser chamado de template ageing na área de sistemas biométricos adaptativos ou de mudança de conceito em aprendizado de máquina. Isso levanta a necessidade de adaptar automaticamente a referência biométrica com o tempo, uma tarefa executada por sistemas biométricos adaptativos. Esta tese estudou sistemas biométricos adaptativos considerando biometria em um contexto de fluxo de dados. Neste contexto, o teste é executado em um fluxo de dados biométrico, em que as amostras de consulta são apresentadas uma após a outra para o sistema biométrico. Um sistema biométrico adaptativo deve então classificar cada consulta e adaptar a referência biométrica. A decisão de executar a adaptação é tomada pelo sistema biométrico. Dentre as modalidades biométricas, esta tese foca em biometria comportamental, em particular em dinâmica da digitação e em biometria por acelerômetro. Modalidades comportamentais tendem a ser sujeitas a mudanças mais rápidas do que modalidades físicas. Entretanto, havia poucos estudos lidando com sistemas biométricos adaptativos para modalidades comportamentais, destacando uma lacuna para ser explorada. Ao longo da tese, diversos aspectos para aprimorar o projeto de sistemas biométricos adaptativos para modalidades comportamentais em um contexto de fluxo de dados foram discutidos: proposta de estratégias de adaptação para o algoritmo de classificação imunológico Self-Detector, combinação de modelos genuíno e impostor no framework do Enhanced Template Update e aplicação de normalização de scores em sistemas biométricos adaptativos. Com base na investigação desses aspectos, foi observado que a melhor escolha para cada aspecto estudado dos sistemas biométricos adaptativos pode ser diferente dependendo do conjunto de dados e, além disso, dependendo dos usuários no conjunto de dados. As diferentes características dos usuários, incluindo a forma como as características biométricas mudam com o tempo, sugerem que as estratégias de adaptação deveriam ser escolhidas por usuário. Isso motivou a proposta de um sistema biométrico adaptativo modular, chamado ModBioS, que pode escolher cada um desses aspectos por usuário. O ModBioS é capaz de generalizar diversos sistemas baseline e propostas apresentadas nesta tese em um framework modular, juntamente com a possibilidade de atribuir estratégias de adaptação diferentes por usuário. Resultados experimentais mostraram que o sistema biométrico adaptativo modular pode superar diversos sistemas baseline, enquanto que abre um grande número de oportunidades para trabalhos futuros.

Page generated in 0.0693 seconds