• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 10
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 61
  • 61
  • 24
  • 18
  • 15
  • 11
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

On the use of control- and data-ow in fault localization / Sobre o uso de fluxo de controle e de dados para a localizao de defeitos

Henrique Lemos Ribeiro 19 August 2016 (has links)
Testing and debugging are key tasks during the development cycle. However, they are among the most expensive activities during the development process. To improve the productivity of developers during the debugging process various fault localization techniques have been proposed, being Spectrum-based Fault Localization (SFL), or Coverage-based Fault Localization (CBFL), one of the most promising. SFL techniques pinpoints program elements (e.g., statements, branches, and definition-use associations), sorting them by their suspiciousness. Heuristics are used to rank the most suspicious program elements which are then mapped into lines to be inspected by developers. Although data-flow spectra (definition-use associations) has been shown to perform better than control-flow spectra (statements and branches) to locate the bug site, the high overhead to collect data-flow spectra has prevented their use on industry-level code. A data-flow coverage tool was recently implemented presenting on average 38% run-time overhead for large programs. Such a fairly modest overhead motivates the study of SFL techniques using data-flow information in programs similar to those developed in the industry. To achieve such a goal, we implemented Jaguar (JAva coveraGe faUlt locAlization Ranking), a tool that employ control-flow and data-flow coverage on SFL techniques. The effectiveness and efficiency of both coverages are compared using 173 faulty versions with sizes varying from 10 to 96 KLOC. Ten known SFL heuristics to rank the most suspicious lines are utilized. The results show that the behavior of the heuristics are similar both to control- and data-flow coverage: Kulczynski2 and Mccon perform better for small number of lines investigated (from 5 to 30 lines) while Ochiai performs better when more lines are inspected (30 to 100 lines). The comparison between control- and data-flow coverages shows that data-flow locates more defects in the range of 10 to 50 inspected lines, being up to 22% more effective. Moreover, in the range of 20 and 100 lines, data-flow ranks the bug better than control-flow with statistical significance. However, data-flow is still more expensive than control-flow: it takes from 23% to 245% longer to obtain the most suspicious lines; on average data-flow is 129% more costly. Therefore, our results suggest that data-flow is more effective in locating faults because it tracks more relationships during the program execution. On the other hand, SFL techniques supported by data-flow coverage needs to be improved for practical use at industrial settings / Teste e depuração são tarefas importantes durante o ciclo de desenvolvimento de programas, no entanto, estão entre as atividades mais caras do processo de desenvolvimento. Diversas técnicas de localização de defeitos têm sido propostas a fim de melhorar a produtividade dos desenvolvedores durante o processo de depuração, sendo a localização de defeitos baseados em cobertura de código (Spectrum-based Fault Localization (SFL) uma das mais promissoras. A técnica SFL aponta os elementos de programas (e.g., comandos, ramos e associações definição-uso), ordenando-os por valor de suspeição. Heursticas são usadas para ordenar os elementos mais suspeitos de um programa, que então são mapeados em linhas de código a serem inspecionadas pelos desenvolvedores. Embora informações de fluxo de dados (associações definição-uso) tenham mostrado desempenho melhor do que informações de fluxo de controle (comandos e ramos) para localizar defeitos, o alto custo para coletar cobertura de fluxo de dados tem impedido a sua utilização na prática. Uma ferramenta de cobertura de fluxo de dados foi recentemente implementada apresentando, em média, 38% de sobrecarga em tempo de execução em programas similares aos desenvolvidos na indústria. Tal sobrecarga, bastante modesta, motiva o estudo de SFL usando informações de fluxo de dados. Para atingir esse objetivo, Jaguar (Java coveraGe faUlt locAlization Ranking), uma ferramenta que usa técnicas SFL com cobertura de fluxo de controle e de dados, foi implementada. A eficiência e eficácia de ambos os tipos de coberturas foram comparados usando 173 versões com defeitos de programas com tamanhos variando de 10 a 96 KLOC. Foram usadas dez heursticas conhecidas para ordenar as linhas mais suspeitas. Os resultados mostram que o comportamento das heursticas são similares para fluxo de controle e de dados: Kulczyski2 e Mccon obtêm melhores resultados para números menores de linhas investigadas (de 5 a 30), enquanto Ochiai é melhor quando mais linhas são inspecionadas (de 30 a 100). A comparação entre os dois tipos de cobertura mostra que fluxo de dados localiza mais defeitos em uma variação de 10 a 50 linhas inspecionadas, sendo até 22% mais eficaz. Além disso, na faixa entre 20 e 100 linhas, fluxo de dados classifica com significância estatstica melhor os defeitos. No entanto, fluxo de dados é mais caro do que fluxo de controle: leva de 23% a 245% mais tempo para obter os resultados; fluxo de dados é em média 129% mais custoso. Portanto, os resultados indicam que fluxo de dados é mais eficaz para localizar os defeitos pois rastreia mais relacionamentos durante a execução do programa. Por outro lado, técnicas SFL apoiadas por cobertura de fluxo de dados precisam ser mais eficientes para utilização prática na indústria
22

An?lise de desempenho de abordagens orientadas a fluxo de dados aplicadas ? detec??o de falhas de processos industriais

Germano, Amanda Lucena 31 July 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2018-01-15T21:33:32Z No. of bitstreams: 1 AmandaLucenaGermano_DISSERT.pdf: 7217536 bytes, checksum: 25a20d10202bb0af3f3b8e89539d2fbb (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-01-17T12:52:40Z (GMT) No. of bitstreams: 1 AmandaLucenaGermano_DISSERT.pdf: 7217536 bytes, checksum: 25a20d10202bb0af3f3b8e89539d2fbb (MD5) / Made available in DSpace on 2018-01-17T12:52:40Z (GMT). No. of bitstreams: 1 AmandaLucenaGermano_DISSERT.pdf: 7217536 bytes, checksum: 25a20d10202bb0af3f3b8e89539d2fbb (MD5) Previous issue date: 2017-07-31 / Com a necessidade do aumento da qualidade dos produtos e do desempenho dos processos, o grau de automa??o cresceu bastante nas ind?strias. Com isso, os sistemas est?o cada vez mais complexos e v?m acompanhados por problemas dif?ceis de resolver devido ? alta dimensionalidade desses sistemas e do grande volume do fluxo de informa??es necess?rias, al?m da aleatoriedade de falhas e defeitos. Uma falha inesperada pode levar a riscos operacionais, por isso a import?ncia de detectar e localizar a falha, principalmente quando a planta industrial ainda est? operando em uma regi?o control?vel e ? poss?vel agir para trazer o processo de volta para o estado normal, seguro e operacional. Assim, ? desej?vel que o sistema de detec??o de falhas forne?a respostas r?pidas e confi?veis com um esfor?o computacional adequado para processamento em tempo real, mesmo necessitando tratar com grandes quantidades de dados. Para trabalhar com grandes quantidades de dados em tempo real, surgiu o modelo de fluxo de dados, que consiste de uma sequ?ncia ordenada de pontos que s? podem ser lidos apenas uma ou algumas poucas vezes. Essa ?rea cresceu bastante nos ?ltimos anos, principalmente devido a grande quantidade de sistemas que precisavam tratar com dados desse tipo, que incluem desde dados do mercado financeiro, registros telef?nicos, transa??es web a dados m?dicos, redes de sensores ou mesmo dados multim?dia. Diante da relev?ncia do tema de detec??o de falhas, nessa tese foram utilizados o TEDA (Typicality and Eccentricity Data Analytics), o RDE (Recursive Density Estimation) e o R-PCA (Recursive Principal Component Analysis) como ferramentas para detec??o de falhas em processos industriais. Para a an?lise do desempenho de cada uma dessas abordagens foi utilizado o cl?ssico benchmark Tennessee Eastman Process. / In order to increase product quality and process performance, the degree of automation has grown significantly in industries. As a result, systems are increasingly complex and are accompanied by problems that are difficult to solve due to the high dimensionality of these systems and the large amount of information flow, as well as the randomness of faults and defects. An unexpected failure can lead to operational risks, so the importance of detecting and locating the fault, especially when the industrial plant is still operating in a controllable region and it is possible to act to bring the process back to normal, safe and operational. Thus, it is desirable for the fault detection system to provide fast and reliable responses with a computational effort appropriate for real-time processing, even though it requires handling large amounts of data. In this context, data stream-oriented algorithms to outlier detection may be promising candidates for fault detection of industrial process, because they work with sequences of temporarily ordered samples. In addition, they handle well with large amount of data because they are recursive and online algorithms that do not need to store past samples. Thus, in this dissertation two algorithms of this class are analyzed, named TEDA (Typicality and Eccentricity Data Analytics) and RDE (Recursive Density Estimation), when applied to fault detection of industrial processes. Their performances are compared to R-PCA (Recursive Principal Component Analysis) algorithm. The classic Tennessee Eastman Process benchmark was used as case study to evaluate these algorithms.
23

Alocação de canais em redes WLAN considerando a utilidade marginal total da conexão para usuários. / Channel allocation in WLAN networks considering the marginal utility total connection users.

Luiz, Thiago Alcântara January 2015 (has links)
Programa de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto. / Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-11-18T19:58:41Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_AlocaçãoCanaisRedes.pdf: 2067461 bytes, checksum: 5fbd00d733f0d7614860f452912cfc93 (MD5) / Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-11-19T17:58:56Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_AlocaçãoCanaisRedes.pdf: 2067461 bytes, checksum: 5fbd00d733f0d7614860f452912cfc93 (MD5) / Made available in DSpace on 2015-11-19T17:58:56Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_AlocaçãoCanaisRedes.pdf: 2067461 bytes, checksum: 5fbd00d733f0d7614860f452912cfc93 (MD5) Previous issue date: 2015 / Redes locais sem fio (WLAN) têm sido amplamente utilizadas nos últimos anos. A fim de atender um número crescente de usuários, estas redes têm cada vez um número maior de pontos de acesso (access points ou AP) que operam em uma área reduzida, sem atenção suficiente para a seleção do canal de operação. A sobreposição de canais entre APs vizinhos é o principal fator de degradação do desempenho da rede para os usuários. No entanto, o número limitado de canais não sobrepostos disponíveis torna o problema de alocação de canais difícil. Os modelos de alocação de canais encontrados na literatura geralmente ignoram a qualidade de conexão dos usuários, e adotam, por exemplo, apenas o nível de interferência total no ambiente ou percentual de usuários submetidos a algum nível de interferência. Neste trabalho, propomos um novo modelo de alocação que visa encontrar um mapeamento de canais para os APs que compõem uma rede WLAN, com o objetivo de maximizar a qualidade total de conexão dos usuários considerando a Utilidade Marginal. O conceito de utilidade envolve a satisfação de um usuário em relação a qualidade da sua conexão, estimado pela intensidade de sinal recebida pelo AP e as perdas causadas pela interferência. Os resultados obtidos utilizando Algoritmos Evolutivos, um algoritmo de busca local e Algoritmos Meméticos contrapõem os modelos de alocação que desconsideram a qualidade de conexão e priorizam alguns usuários gerando grande desequilíbrio na distribuição das velocidades de conexão, pois, não adotam a degradação causada pelos níveis de interferência na conexão dos usuários separadamente. ______________________________________________________________________________________ / ABSTRACT: Wireless Local Area Networks (WLAN) have been widely deployed in the last years. In order to service an increasing number of users, these networks have increasing number of access points (AP) operating in a reduced area without enough attention to the selection of the operating channel. The overlap of channels between neighbour APs is the main factor for degrading performance of the network for the users. However, the limited number of non overlapping frequencies available makes the problem of channel allocation a very hard one. Channel allocation models found in the literature generally ignore the connection quality of the users, and adopt, for example, only the total level of interference in the environment or percentage of users subject to some level of interference. In this work, we propose a new allocation model that aims to find a mapping of channels to APs that make up a WLAN network, with the objective of maximizing overall quality of users' connection considering the Marginal Utility. The concept of utility involves the satisfaction of a user regarding the quality of his/her connection, estimated by the signal strength received by the AP and the losses caused by interference. The results obtained using Evolutionary Algorithms, a Local Search algorithm and Memetic Algorithms oppose the allocation models that ignore the quality of connection and prioritize some users generating large imbalance in the distribution of connection speeds, i.e., do not adopt the degradation caused by interference levels in the connection of users separately.
24

Uma abordagem para um plano de gestão de fluxo de dados na TV Unesp

Azevedo, Maria Lucia de [UNESP] 01 March 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:05Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-03-01Bitstream added on 2014-06-13T20:31:00Z : No. of bitstreams: 1 azevedo_ml_me_bauru.pdf: 1192504 bytes, checksum: caa47c49b42b57b0fd270e7f55d2a65d (MD5) / Recentemente os arquivos audiovisuais começaram a ser tratados como ativos das empresas de comunicação, possibilitando também a sua utilização como fontes rentáveis. Pasaram então a receber os cuidados adequados justificando os investimentos, permitindo assim a geração, o acesso e o manuseio destes conteúdos em boas condições. Por suas características, o conteúdo televisivo gera também demanda na questão do seu armazenamento e na segurança do fluxo de dados trafegados entre a emissora, o usuário e a té entre outras emissoras, o usuário e até entre outras emissoras. A evolução da tecnologia da informação e comunicação (TIC) permite transferências e armazeanmento de grandes quantidades de bytes. Gerenciar arquivos adequadamente pode garantir diminuição de custos em hardware e provocar acesso rápido e seguro na busca dos mesmos, bem como a virtualização (separação das aplicações e sistemas operacionais dos componentes físicos), motivando grande demanda de estudos referentes a este tema. Em uma emissora de televisão digital é necessário que filmes, programas , documentários, propagandas, dentre outros conteúdos, estejam disponíveis em arquivos em formato digital, e isto leva à necessidade de utilização de equipamentos que armazenem massiva quantidade de dados com segurança, os denominados computer data storage ou simplesmente storage. A segurança é um ponto primordial, pois esta deve definir como proteger adequadamente os dados armazenados no storage contra ataques, roubos de arquivos, utilização não autorizada de recursos e aplicações e invasões de hackers . No estudo desenvolvido observou-se o fluxo de dados da TV Unesp, onde foi avaliado desde o ingest até o playout, ou seja, como o conteúdo de informações gravadas por câmeras é transformado em dados até a sua transmissão final para o telespectador. A TV Unesp, emissora universitária bauruense, começou a transmitir sua... / In recent years, communication companies have been regarding their audiovisual files as assets, enabling their use as profitable sources. They have been given proper care, thus justifying the investments and creating an efficient access to them. Their visual content demands specific storage and dataflow security in the transit through the bradcasting station, the user and other station, the user and other stations. The technological evolution nowadays capacitates the conveyance and storage of large quantities of bytes. Adequate file management means hardware cost reduction, safe and fast search as well as virtualization (separation of application and operational systems from physical components). Consequently, oriented studies on the topic are in great demand. Aty a digital television broadcasting company the movies, programs, documentaries and advertising must be in the digital format. For that purpose, it is necessary to use equipment that can store massive quantities of data in a safe way: the 'computer data storage', or simply 'storage'. One must know the real needs of a digital television broadcasting station and establish the procedures in order to make the storage easy to access. Security is the crucial point, defining how to protect adequately the stored data from attacks, file robbery, hackers and the non-authorized use of resources and applications. In this specific study on the Unesp TV dataflow, both the ingest and playout were verified; that is, how the information recorded on camera is turned into data all the way to their transmission to the viewer. Unesp TV - a university broadcasting station from Bauru, Brazil - started its transmission in 2012, generating and storing data in the digital format. The report of the current dataflow as research and is storage by Unesp TV are the basis for a preparation of a management plan for data stream TV broadcasting on Digital, in compliance with the technological policies...
25

Uma abordagem para um plano de gestão de fluxo de dados na TV Unesp /

Azevedo, Maria Lucia de. January 2013 (has links)
Orientador: João Pedro Albino / Banca: Maria Cristina Gobbi / Banca: David Bianchini / Resumo: Recentemente os arquivos audiovisuais começaram a ser tratados como ativos das empresas de comunicação, possibilitando também a sua utilização como fontes rentáveis. Pasaram então a receber os cuidados adequados justificando os investimentos, permitindo assim a geração, o acesso e o manuseio destes conteúdos em boas condições. Por suas características, o conteúdo televisivo gera também demanda na questão do seu armazenamento e na segurança do fluxo de dados trafegados entre a emissora, o usuário e a té entre outras emissoras, o usuário e até entre outras emissoras. A evolução da tecnologia da informação e comunicação (TIC) permite transferências e armazeanmento de grandes quantidades de bytes. Gerenciar arquivos adequadamente pode garantir diminuição de custos em hardware e provocar acesso rápido e seguro na busca dos mesmos, bem como a virtualização (separação das aplicações e sistemas operacionais dos componentes físicos), motivando grande demanda de estudos referentes a este tema. Em uma emissora de televisão digital é necessário que filmes, programas , documentários, propagandas, dentre outros conteúdos, estejam disponíveis em arquivos em formato digital, e isto leva à necessidade de utilização de equipamentos que armazenem massiva quantidade de dados com segurança, os denominados computer data storage ou simplesmente storage. A segurança é um ponto primordial, pois esta deve definir como proteger adequadamente os dados armazenados no storage contra ataques, roubos de arquivos, utilização não autorizada de recursos e aplicações e invasões de hackers . No estudo desenvolvido observou-se o fluxo de dados da TV Unesp, onde foi avaliado desde o "ingest" até o "playout", ou seja, como o conteúdo de informações gravadas por câmeras é transformado em dados até a sua transmissão final para o telespectador. A TV Unesp, emissora universitária bauruense, começou a transmitir sua... / Abstract: In recent years, communication companies have been regarding their audiovisual files as assets, enabling their use as profitable sources. They have been given proper care, thus justifying the investments and creating an efficient access to them. Their visual content demands specific storage and dataflow security in the transit through the bradcasting station, the user and other station, the user and other stations. The technological evolution nowadays capacitates the conveyance and storage of large quantities of bytes. Adequate file management means hardware cost reduction, safe and fast search as well as virtualization (separation of application and operational systems from physical components). Consequently, oriented studies on the topic are in great demand. Aty a digital television broadcasting company the movies, programs, documentaries and advertising must be in the digital format. For that purpose, it is necessary to use equipment that can store massive quantities of data in a safe way: the 'computer data storage', or simply 'storage'. One must know the real needs of a digital television broadcasting station and establish the procedures in order to make the storage easy to access. Security is the crucial point, defining how to protect adequately the stored data from attacks, file robbery, hackers and the non-authorized use of resources and applications. In this specific study on the Unesp TV dataflow, both the ingest and playout were verified; that is, how the information recorded on camera is turned into data all the way to their transmission to the viewer. Unesp TV - a university broadcasting station from Bauru, Brazil - started its transmission in 2012, generating and storing data in the digital format. The report of the current dataflow as research and is storage by Unesp TV are the basis for a preparation of a management plan for data stream TV broadcasting on Digital, in compliance with the technological policies... / Mestre
26

Classificação de fluxo de dados não estacionários com aplicação em sensores identificadores de insetos / Classification of non-stationary data stream with application in sensors for insect identification.

Vinicius Mourão Alves de Souza 23 May 2016 (has links)
Diversas aplicações são responsáveis por gerar dados ao longo do tempo de maneira contínua, ordenada e ininterrupta em um ambiente dinâmico, denominados fluxo de dados. Entre possíveis tarefas que podem ser realizadas com estes dados, classificação é uma das mais proeminentes. Devido à natureza não estacionária do ambiente responsável por gerar os dados, as características que descrevem os conceitos das classes do problema de classificação podem se alterar ao longo do tempo. Por isso, classificadores de fluxo de dados requerem constantes atualizações em seus modelos para que a taxa de acerto se mantenha estável ao longo do tempo. Na etapa de atualização a maior parte das abordagens considera que, após a predição de cada exemplo, o seu rótulo correto é imediatamente disponibilizado sem qualquer atraso de tempo (latência nula). Devido aos altos custos do processo de rotulação, os rótulos corretos nem sempre podem ser obtidos para a maior parte dos dados ou são obtidos após um considerável atraso de tempo. No caso mais desafiador, encontram-se as aplicações em que após a etapa de classificação dos exemplos, os seus respectivos rótulos corretos nunca sã disponibilizados para o algoritmo, caso chamado de latência extrema. Neste cenário, não é possível o uso de abordagens tradicionais, sendo necessário o desenvolvimento de novos métodos que sejam capazes de manter um modelo de classificação atualizado mesmo na ausência de dados rotulados. Nesta tese, além de discutir o problema de latência na tarefa de classificação de fluxo de dados não estacionários, negligenciado por boa parte da literatura, também sã propostos dois algoritmos denominados SCARGC e MClassification para o cenário de latência extrema. Ambas as propostas se baseiam no uso de técnicas de agrupamento para a adaptação à mudanças de maneira não supervisionada. Os algoritmos propostos são intuitivos, simples e apresentam resultados superiores ou equivalentes a outros algoritmos da literatura em avaliações com dados sintéticos e reais, tanto em termos de acurácia de classificação como em tempo computacional. Aléem de buscar o avanço no estado-da-arte na área de aprendizado em fluxo de dados, este trabalho também apresenta contribuições para uma importante aplicação tecnológica com impacto social e na saúde pública. Especificamente, explorou-se um sensor óptico para a identificação automática de espécies de insetos a partir da análise de informações provenientes do batimento de asas dos insetos. Para a descrição dos dados, foi verificado que os coeficientes Mel-cepstrais apresentaram os melhores resultados entre as diferentes técnicas de processamento digital de sinais avaliadas. Este sensor é um exemplo concreto de aplicação responsável por gerar um fluxo de dados em que é necessário realizar classificações em tempo real. Durante a etapa de classificação, este sensor exige a adaptação a possíveis variações em condições ambientais, responsáveis por alterar o comportamento dos insetos ao longo do tempo. Para lidar com este problema, é proposto um Sistema com Múltiplos Classificadores que realiza a seleção dinâmica do classificador mais adequado de acordo com características de cada exemplo de teste. Em avaliações com mudanças pouco significativas nas condições ambientais, foi possível obter uma acurácia de classificação próxima de 90%, no cenário com múltiplas classes e, cerca de 95% para a identificação da espécie Aedes aegypti, considerando o treinamento com uma única classe. No cenário com mudanças significativas nos dados, foi possível obter 91% de acurácia em um problema com 5 classes e 96% para a classificação de insetos vetores de importantes doenças como dengue e zika vírus. / Many applications are able to generate data continuously over t ime in an ordered and uninterrupted way in a dynamic environment , called data streams. Among possible tasks that can be performed with these data, classification is one of the most prominent . Due to non-stationarity of the environment that generates the data, the features that describe the concepts of the classes can change over time. Thus, the classifiers that deal with data streams require constants updates in their classification models to maintain a stable accuracy over time. In the update phase, most of the approaches assume that after the classification of each example from the stream, their actual class label is available without any t ime delay (zero latency). Given the high label costs, it is more reasonable to consider that this delay could vary for the most portion of the data. In the more challenging case, there are applications with extreme latency, where in after the classification of the examples, heir actual class labels are never available to the algorithm. In this scenario, it is not possible to use traditional approaches. Thus, there is the need of new methods that are able to maintain a classification model updated in the absence of labeled data. In this thesis, besides to discuss the problem of latency to obtain actual labels in data stream classification problems, neglected by most of the works, we also propose two new algorithms to deal with extreme latency, called SCARGC and MClassification. Both algorithms are based on the use of clustering approaches to adapt to changes in an unsupervised way. The proposed algorithms are intuitive, simpleand showed superior or equivalent results in terms of accuracy and computation time compared to other approaches from literature in an evaluation on synthetic and real data. In addition to the advance in the state-of-the-art in the stream learning area, this thesis also presents contributions to an important technological application with social and public health impacts. Specifically, it was studied an optical sensor to automatically identify insect species by the means of the analysis of information coming from wing beat of insects. To describe the data, we conclude that the Mel-cepst ral coefficients guide to the best results among different evaluated digital signal processing techniques. This sensor is a concrete example of an applicat ion that generates a data st ream for which it is necessary to perform real-time classification. During the classification phase, this sensor must adapt their classification model to possible variat ions in environmental conditions, responsible for changing the behavior of insects. To address this problem, we propose a System with Multiple Classifiers that dynamically selects the most adequate classifier according to characteristics of each test example. In evaluations with minor changes in the environmental conditions, we achieved a classification accuracy close to 90% in a scenario with multiple classes and 95% when identifying Aedes aegypti species considering the training phase with only the positive class. In the scenario with considerable changes in the environmental conditions, we achieved 91% of accuracy considering 5 species and 96% to classify vector mosquitoes of important diseases as dengue and zika virus.
27

Gerenciamento de tags na arquitetura ChipCflow - uma máquina a fluxo de dados dinâmica / Tag management in ChipCflow architecture - a dynamic dataflow machine

Bruno de Abreu Silva 15 April 2011 (has links)
Nos últimos anos, percebeu-se uma crescente busca por softwares e arquiteturas alternativas. Essa busca acontece porque houve avanços na tecnologia do hardware e estes avanços devem ser complementados por inovações nas metodologias de projetos, testes e verificação para que haja um uso eficaz da tecnologia. Muitos dos softwares e arquiteturas alternativas, geralmente partem para modelos que exploram o paralelismo das aplicações, ao contrário do modelo de von Neumann. Dentre as arquiteturas alternativas de alto desempenho, tem-se a arquitetura a fluxo de dados. Nesse tipo de arquitetura, o processo de execução de programas é determinado pela disponibilidade dos dados. Logo, o paralelismo está embutido na própria natureza do sistema. O modelo a fluxo de dados possui a vantagem de expressar o paralelismo de maneira intrínseca, eliminando a necessidade de o programador explicitar em seu código os trechos onde deve haver paralelismo. As arquiteturas a fluxo de dados voltaram a ser um tema de pesquisa devido aos avanços do hardware, em particular, os avanços da Computação Reconfigurável e os FPGAs (Field-Programmable Gate Arrays). O projeto ChipCflow é uma ferramenta para execução de algoritmos usando o modelo a fluxo de dados dinâmico em FPGA. Este trabalho apresenta o formato para os tagged-tokens do ChipCflow, os operadores de manipulação das tags dos tokens e suas implementações a fim de que se tenha a PROVA-DE-CONCEITOS para tais operadores na arquitetura ChipCflow / The alternative architectures and softwares researches have been growing in the last years. These researches are happening due to the advance of hardware technology and such advances must be complemented by improvements on design methodologies, test and verification techniques in order to use technology effectively. Many of the alternative architectures and softwares, in general, explore the parallelism of applications, differently to von Neumann model. Among high performance alternative architectures, there is the Dataflow Architecture. In this kind of architecture, the execution of programs is determined by data availability, thus the parallelism is intrinsic in these systems. The dataflow architectures become again a highlighted research area due to hardware advances, in particular, the advances of Reconfigurable Computing and FPGAs (Field-Programmable Gate Arrays). ChipCflow project is a tool for execution of algorithms using dynamic dataflow graph in FPGA. The main goal in this module of the ChipCflow project is to define the tagged-token format, the iterative operators that will manipulate the tags of tokens and to implement them
28

ChipCflow: tool for convert C code in a static dataflow architecture in reconfigurable hardware / ChipCflow: ferramenta para conversão de código C em uma arquitetura a fluxo de dados estática em harware reconfigurável

Antonio Carlos Fernandes da Silva 19 February 2015 (has links)
A growing search for alternative architectures and softwares have been noted in the last years. This search happens due to the advance of hardware technology and such advances must be complemented by innovations on design methodologies, test and verification techniques in order to use technology effectively. Alternative architectures and softwares, in general, explores the parallelism of applications, differently to Von Neumann model. Among high performance alternative architectures, there is the Dataflow Architecture. In this kind of architecture, the process of program execution is determined by data availability, thus the parallelism is intrinsic in these systems. The dataflow architectures become again a highlighted search area due to hardware advances, in particular, the advances of Reconfigurable Computing and Field Programmable Gate Arrays (FPGAs). ChipCflow projet is a tool for execution of algorithms using dynamic dataflow graph in FPGA. In this thesis, the development of a code conversion tool to generate aplications in a static dataflow architecture, is described. Also the ChipCflow project where the code conversion tool is part, is presented. The specification of algorithm to be converted is made in C language and converted to a hadware description language, respecting the proposed by ChipCflow project. The results are the proof of concept of converting a high-level language code for dataflow architecture to be used into a FPGA. / Existe uma crescente busca por softwares e arquiteturas alternativas. Essa busca acontece pois houveram avanços na tecnologia do hardware, e estes avanços devem ser complementados por inovações nas metodologias de projetos, testes e verificação para que haja um uso eficaz da tecnologia. Os software e arquiteturas alternativas, geralmente são modelos que exploram o paralelismo das aplicações, ao contrário do modelo de Von Neumann. Dentre as arquiteturas alternativas de alto desempenho, tem-se a arquitetura a fluxo de dados. Nesse tipo de arquitetura, o processo de execução de programas é determinado pela disponibilidade dos dados, logo o paralelismo está embutido na própria natureza do sistema. O modelo a fluxo de dados possui a vantagem de expressar o paralelismo de maneira intrínseca, eliminando a necessidade do programador explicitar em seu código os trechos onde deve haver paralelismo. As arquiteturas a fluxo de dados voltaram a ser uma área de pesquisa devido aos avanços do hardware, em particular, os avanços da Computação Reconfigurável e dos Field Programmable Gate Arrays (FPGAs).Nesta tese é descrita uma ferramenta de conversão de código que visa a geração de aplicações utilizando uma arquitetura a fluxo de dados estática. Também é descrito o projeto ChipCflow, cuja ferramenta de conversão de código, descrita nesta tese, é parte integrante. A especificação do algoritmo a ser convertido é feita em linguagem C e convertida para uma linguagem de descrição de hardware, respeitando o modelo proposto pelo ChipCflow. Os resultados alcançados visam a prova de conceito da conversão de código de uma linguagem de alto nível para uma arquitetura a fluxo de dados a ser configurada em FPGA.
29

ChipCFlow - Partição e protocolo de comunicação no grafo a fluxo de dados dinâmico / ChipCFlow - partioning and communication protocol in the dynamic dataflow graph

Lucas Barbosa Sanches 14 May 2010 (has links)
Este trabalho descreve a prova de conceito de uma abordagem que utiliza o modelo de computação a fluxo de dados, inerentemente paralelo, associado ao modelo de computação reconfigurável parcial e dinamicamente, visando à obtenção de sistemas computacionais de alto desempenho. Mais especificamente, trata da obtenção de um modelo para o particionamento dos grafos a fluxo de dados dinâmicos e de um protocolo de comunicação entre suas partes, a fim de permitir a sua implementação em arquiteturas dinamicamente reconfiguráveis, em especial em FGPAs Virtex da Xilinx. Enquadra-se no contexto do projeto ChipCFlow, de escopo mais amplo, que pretende obter uma ferramenta para geração automática de descrição de hardware sintetizável, a partir de código em alto nível, escrito em linguagem C, fazendo uso da abordagem a fluxo de dados para extrair o paralelismo implícito nas aplicações originais. O modelo proposto é aplicado em um grafo a fluxo de dados dinâmico, e através de simulações sua viabilidade é discutida / This work describes the concept of an approach that uses data ow computational model, inherently parallel, associated with de reconfigurable computing model, partial and dynamic, in order to obtain high performance computational systems. More specifically, it is about a model to the partitioning and communication between partitioned sectors of a CDFG (Control Data Flow Graph) in order to map these graphs on a partial reconfiguration FPGA fabric, in special Virtex II/II-Pro from Xilinx. It is part of the ChipCFlow project, that has a bigger scope, and that aims to automatically obtain syntetisable hardware descriptions, from high level code written in C and, by using a data flow approach to extract implicit parallelism in original applications. The model obtained is extensively explained and applied to an example of CDFG, where by means of simulations its feasibility is discussed
30

Refinamento manual e automático de modelos tridimensionais de proteínas para o workflow científico MHOLline

Rossi, Artur Duque 24 February 2017 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-06-21T11:13:33Z No. of bitstreams: 1 arturduquerossi.pdf: 11420528 bytes, checksum: 07d7635a64ff2d13fe27216b526f4f72 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-08-07T19:03:40Z (GMT) No. of bitstreams: 1 arturduquerossi.pdf: 11420528 bytes, checksum: 07d7635a64ff2d13fe27216b526f4f72 (MD5) / Made available in DSpace on 2017-08-07T19:03:40Z (GMT). No. of bitstreams: 1 arturduquerossi.pdf: 11420528 bytes, checksum: 07d7635a64ff2d13fe27216b526f4f72 (MD5) Previous issue date: 2017-02-24 / O MHOLline é um workflow científico voltado para a modelagem e análise de proteínas, atendendo a pesquisadores de diversas áreas, como Bioinformática, Biofísica, Químicos Computacionais e Biólogos Computacionais. Este projeto, iniciado em 2004 como um software de uso local, tornou-se um serviço web em 2010, através da parceria da Universidade Federal do Rio de Janeiro (UFRJ) com o Laboratório Nacional de Computação Científica (LNCC), o qual pode ser acessado pelo endereço web http : //www.mholline . lncc . br. Em 2013, uma parceria com a Universidade Federal de Juiz de Fora deu início ao projeto do MHOLline 2.0, disponível no endereço web http : //www.mholline2 . lncc .br, que conta com adições de softwares, uma interface completamente nova e uma área de refinamento de resultados para usuários logados. A área do refinamento de resultados oferece a possibilidade aos usuários de adicionar ou trocar o molde da proteína modelada, criar restrições de estrutura secundária no Modeller, clivar regiões de peptídeo sinal e otimizar loops no Modeller, tudo de forma automática, dispensando a necessidade do usuário gerar qualquer script manualmente. Caso o usuário deseje é possível refinar a proteína automaticamente, através do uso de ferramentas de inteligência artificial para classificar os resultados gerados com as opções de restrição modeladas, em grupos, visando reduzir o trabalho de analisar os resultados finais do refinamento. Neste trabalho, apresentamos também uma nova proposta para agrupamento de modelos de proteínas baseado em um conjunto de atributos relacionados com a sua qualidade (e.g. energia e estrutural). Ao usuário, além dos grupos de estruturas com qualidades similares, também é retornada a estrutura representativa de cada grupo, com o objetivo de auxiliar na tomada de decisão de qual ou quais modelos seguirão para os próximos estudos. / MHOLline is a scientific workflow designed to model and analyze proteins, reaching researchers in domains of Bioinformatics, Biophysics, Computational Chemists and Computational Biologists. This project started in 2004 as a local software and became a web service in 2010 (available at http : //www .mholline . lncc . br), through the partnership between the Universidade Federal do Rio de Janeiro (UFRJ) and Laboratório Nacional de Computação Científica (LNCC). In 2013, a new partnership with Universidade Federal de Juiz de Fora started the development of MHOLline 2.0, now available at http : //www .mholline2 . lncc . br. This version presents a new interface and a refinement ama to logged users, offering the possibility to add or modify the template of the protein, remove signal peptides and restrict secondary structures and optimize protein loops on Modeller. All can be done in an automatic way, dispensing the user to manually generate any script. The user can also refine the protein automatically trough the use of artificial intelligence tools classifying the generated results with a set of restrictions in groups, aiming to reduce the effort to analyze the final refinement results. In this work, we also present a new proposal for clustering protein models based on a set of attributes related to their quality (i.e., energy and structural quality). To the user, in addition to the groups of structures with similar qualities, is also returned the representative structure of each group, in order to assist in the decision making of which model or models will follow for the future studies.

Page generated in 0.0709 seconds