• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2440
  • 95
  • 89
  • 78
  • 78
  • 77
  • 57
  • 32
  • 21
  • 16
  • 15
  • 15
  • 9
  • 3
  • 3
  • Tagged with
  • 2612
  • 1390
  • 672
  • 644
  • 476
  • 433
  • 402
  • 313
  • 305
  • 300
  • 257
  • 238
  • 236
  • 231
  • 229
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Transmissão progressiva de imagens sintetizadas de light field

Souza, Wallace Bruno Silva de 25 July 2018 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2018. / Esta proposta estabelece um método otimizado baseado em taxa-distorção para transmitir imagens sintetizadas de light field. Resumidamente, uma imagem light field pode ser interpretada como um dado quadridimensional (4D) que possui tanto resolução espacial, quanto resolução angular, sendo que cada subimagem bidimensional desse dado 4D é tido como uma determinada perspectiva, isto é, uma imagem de subabertura (SAI, do inglês Sub-Aperture Image). Este trabalho visa modi car e aprimorar uma proposta anterior chamada de Comunicação Progressiva de Light Field (PLFC, do inglês Progressive Light Field Communication ), a qual trata da sintetização de imagens referentes a diferentes focos requisitados por um usuário. Como o PLFC, este trabalho busca fornecer informação suficiente para o usuário de modo que, conforme a transmissão avance, ele tenha condições de sintetizar suas próprias imagens de ponto focal, sem a necessidade de se enviar novas imagens. Assim, a primeira modificação proposta diz respeito à como escolher a cache inicial do usuário, determinando uma quantidade ideal de imagens de subabertura para enviar no início da transmissão. Propõe-se também um aprimoramento do processo de seleção de imagens adicionais por meio de um algoritmo de refinamento, o qual é aplicado inclusive na inicialização da cache. Esse novo processo de seleção lida com QPs (Passo de Quantização, do inglês Quantization Parameter ) dinâmicos durante a codificação e envolve não só os ganhos imediatos para a qualidade da imagem sintetizada, mas ainda considera as sintetizações subsequentes. Tal ideia já foi apresentada pelo PLFC, mas não havia sido implementada de maneira satisfatória. Estabelece-se ainda uma maneira automática para calcular o multiplicador de Lagrange que controla a influência do benefício futuro associado à transmissão de uma SAI. Por fim, descreve-se um modo simplificado de obter esse benefício futuro, reduzindo a complexidade computacional envolvida. Muitas são as utilidades de um sistema como este, podendo, por exemplo, ser usado para identificar algum elemento em uma imagem light field, ajustando apropriadamente o foco em questão. Além da proposta, os resultados obtidos são exibidos, sendo feita uma discussão acerca dos significativos ganhos conseguidos de até 32; 8% com relação ao PLFC anterior em termos de BD-Taxa. Esse ganho chega a ser de até 85; 8% em comparação com transmissões triviais de dados light field. / This work proposes an optimized rate-distortion method to transmit light field synthesized images. Briefy, light eld images could be understood like quadridimensional (4D) data, which have both spatial and angular resolution, once each bidimensional subimage in this 4D image is a certain perspective, that is, a SAI (Sub-Aperture Image). This work aims to modify and to improve a previous proposal named PLFC (Progressive Light Field Communication), which addresses the image synthesis for diferent focal point images requested by an user. Like the PLFC, this work tries to provide enough information to the user so that, as the transmsission progress, he can synthesize his own focal point images, without the need to transmit new images. Thus, the first proposed modification refers to how the user's initial cache should be chosen, defining an ideal ammount of SAIs to send at the transmission begining. An improvement of the additional images selection process is also proposed by means of a refinement algorithm, which is applied even in the cache initialization. This new selection process works with dynamic QPs (Quantization Parameter) during encoding and involves not only the immediate gains for the synthesized image, but either considers the subsequent synthesis. This idea already was presented by PLFC, but had not been satisfactorily implemented. Moreover, this work proposes an automatic way to calculate the Lagrange multiplier which controls the in uence of the future benefit associated with the transmission of some SAI. Finally, a simplified manner of obtaining this future benefit is then described, reducing the computational complexity involved. The utilities of such a system are diverse and, for example, it can be used to identify some element in a light field image, adjusting the focus accordingly. Besides the proposal, the obtained results are shown, and a discussion is made about the significant achieved gains up to 32:8% compared to the previous PLFC in terms of BD-Rate. This gain is up to 85:8% in relation to trivial light field data transmissions.
302

MFIS: algoritmo de reconhecimento e indexação em base de dados de impressões digitais em espaço métrico / MFIS: algorithm for the recognition and indexing in database of fingerprints in metric spaces

Evandro de Araújo Jardini 31 August 2007 (has links)
O problema dos métodos tradicionais de identificação de pessoas é que são baseados em senhas e assim podem ser esquecidas, roubadas, perdidas, copiadas, armazenadas de maneira insegura e até utilizadas por uma pessoa que não tenha autorização. Os sistemas biométricos automáticos surgiram para oferecer uma alternativa para o reconhecimento de pessoas com maior segurança e eficiência. Uma das técnicas biométricas mais utilizadas é o reconhecimento de impressões digitais. Com o aumento do uso de impressões digitais nestes sistemas, houve o surgimento de grandes bancos de dados de impressões digitais, tornado-se um desafio encontrar a melhor e mais rápida maneira de recuperar informações. De acordo com os desafios apresentados, este trabalho tem duas propostas: i) desenvolver um novo algoritmo métrico para identificação de impressões digitais e ii) usá-lo para indexar um banco de dados de impressões digitais através de uma árvore de busca métrica. Para comprovar a eficiência do algoritmo desenvolvido foram realizados testes sobre duas bases de imagens de impressões digitais, disponibilizadas no evento Fingerprint Verification Competition dos anos de 2000 e 2002. Os resultados obtidos foram comparados com os resultados do algoritmo proposto por Bozorth. A avaliação dos resultados foi feita pela curva Receiver Operating Characteristic juntamente com a taxa de Equal Error Rate, sendo que, o método proposto, obteve a taxa de 4,9% contra 7,2% do método de Bozorth e de 2,0% contra 2,7% do Bozorth nos banco de dados dos anos de 2000 e 2002 respectivamente. Nos testes de robustez, o algoritmo proposto conseguiu identificar uma impressão digital com uma parte da imagem de apenas 30% do tamanho original e por se utilizar uma base de dados indexada, o mesmo obteve vantagens de tempo na recuperação de pequenas quantidades de impressões digitais de uma mesma classe. / The problem of the traditional methods of people identification is that they are based on passwords which may to be forgotten, stolen, lost, copied, stored in an insecure way and be used by unauthorized person. Automatic biometric systems appeared to provide an alternative for the recognition of people in a more safe and efficienty way. One most biometrics techniques used is the fingerprint recognition. With the increasing use of fingerprints in biometric systems, large fingerprint databases emerged, and with them, the challenge to find the best and fastest way to recover informations. According to the challenges previously mentioned, this work presents two proposals: i) to develop a newmetric algorithm for the identification of fingerprints and ii) to use it to index a fingerprint database using a metric search tree. To prove the efficiency of the developed algorithm tests were performed on two fingerprint images databases from Fingerprint Verification Competition of years 2000 and 2002. The obtained results were compared to the results of the algorithm proposed by Bozorth and was evaluated by the Receiver Operating Characteristic curve and the Equal Error Rate, where the proposed method is of 4.9% against 7.2% of Bozorth and 2.0% of the algorithm proposed against 2.7% of the Bozorth in the databases of the yearsof 2000 and 2002. In the robustness tests, the proposed algorithm as able to identify a fingerprint with only 30% of the original size and when using an a indexed database, it obtained better performance in the recovery of small amounts of fingerprints of a single class.
303

MFIS: algoritmo de reconhecimento e indexação em base de dados de impressões digitais em espaço métrico / MFIS: algorithm for the recognition and indexing in database of fingerprints in metric spaces

Jardini, Evandro de Araújo 31 August 2007 (has links)
O problema dos métodos tradicionais de identificação de pessoas é que são baseados em senhas e assim podem ser esquecidas, roubadas, perdidas, copiadas, armazenadas de maneira insegura e até utilizadas por uma pessoa que não tenha autorização. Os sistemas biométricos automáticos surgiram para oferecer uma alternativa para o reconhecimento de pessoas com maior segurança e eficiência. Uma das técnicas biométricas mais utilizadas é o reconhecimento de impressões digitais. Com o aumento do uso de impressões digitais nestes sistemas, houve o surgimento de grandes bancos de dados de impressões digitais, tornado-se um desafio encontrar a melhor e mais rápida maneira de recuperar informações. De acordo com os desafios apresentados, este trabalho tem duas propostas: i) desenvolver um novo algoritmo métrico para identificação de impressões digitais e ii) usá-lo para indexar um banco de dados de impressões digitais através de uma árvore de busca métrica. Para comprovar a eficiência do algoritmo desenvolvido foram realizados testes sobre duas bases de imagens de impressões digitais, disponibilizadas no evento Fingerprint Verification Competition dos anos de 2000 e 2002. Os resultados obtidos foram comparados com os resultados do algoritmo proposto por Bozorth. A avaliação dos resultados foi feita pela curva Receiver Operating Characteristic juntamente com a taxa de Equal Error Rate, sendo que, o método proposto, obteve a taxa de 4,9% contra 7,2% do método de Bozorth e de 2,0% contra 2,7% do Bozorth nos banco de dados dos anos de 2000 e 2002 respectivamente. Nos testes de robustez, o algoritmo proposto conseguiu identificar uma impressão digital com uma parte da imagem de apenas 30% do tamanho original e por se utilizar uma base de dados indexada, o mesmo obteve vantagens de tempo na recuperação de pequenas quantidades de impressões digitais de uma mesma classe. / The problem of the traditional methods of people identification is that they are based on passwords which may to be forgotten, stolen, lost, copied, stored in an insecure way and be used by unauthorized person. Automatic biometric systems appeared to provide an alternative for the recognition of people in a more safe and efficienty way. One most biometrics techniques used is the fingerprint recognition. With the increasing use of fingerprints in biometric systems, large fingerprint databases emerged, and with them, the challenge to find the best and fastest way to recover informations. According to the challenges previously mentioned, this work presents two proposals: i) to develop a newmetric algorithm for the identification of fingerprints and ii) to use it to index a fingerprint database using a metric search tree. To prove the efficiency of the developed algorithm tests were performed on two fingerprint images databases from Fingerprint Verification Competition of years 2000 and 2002. The obtained results were compared to the results of the algorithm proposed by Bozorth and was evaluated by the Receiver Operating Characteristic curve and the Equal Error Rate, where the proposed method is of 4.9% against 7.2% of Bozorth and 2.0% of the algorithm proposed against 2.7% of the Bozorth in the databases of the yearsof 2000 and 2002. In the robustness tests, the proposed algorithm as able to identify a fingerprint with only 30% of the original size and when using an a indexed database, it obtained better performance in the recovery of small amounts of fingerprints of a single class.
304

Digitalização de obras de arte: da reprodução à visualização

Araujo, Fernanda Maria Oliveira 22 June 2015 (has links)
Made available in DSpace on 2016-03-15T19:43:05Z (GMT). No. of bitstreams: 1 Fernanda Maria Oliveira Araujo.pdf: 52133006 bytes, checksum: e885f484f4306b9d7538e1ec6fc2c3f7 (MD5) Previous issue date: 2015-06-22 / This dissertation proposes an analysis on the digitalization of visual artworks collections, understood as collections of traditional art s objects such as paintings, sculptures, prints and drawings starting from the decision to reproduce this artwork in a digital object up to the final view on virtual environment as the internet. During the studies it is observed that a collection digitalization, regardless of its nature, is more than an ordinary digital conversion, requiring an structured process that impacts systemically, functionally and organizationally all levels of the institution that decides to adhere to digital technologies. Therefore, the artworks collections digitalization goes beyond the issues inherent to scan text documents widespread in libraries. The visual objects (artworks) with its aesthetic contextualization must be subject to reproduction and digitalization processes that consider its intrinsic elements and oriented interfaces to promote users experience. Eventually, the transposition of the museum institutions responsibility as cultural heritage curators of society to a relevant channel for the democratization of information and knowledge diffusion proves to be a reality, a new path with no return. / Esta dissertação propõe uma reflexão sobre a digitalização de acervos de obras de artes visuais, entendidos como coleções de objetos tradicionais da arte tais como pinturas, esculturas, gravuras e desenhos. A trajetória de digitalização desde a decisão da reprodução da obra de arte em um objeto digital à visualização dele em um ambiente virtual como a internet. Ao longo dos estudos observa-se que a digitalização de um acervo, independente de sua natureza, é mais que um processo técnico de conversão digital pois representa um processo estruturado e estratégico que impacta sistemicamente, funcionalmente e organizacionalmente a instituição que decide aderir às tecnologias digitais, ou seja, a digitalização de obras de artes visuais extrapola as questões inerentes à digitalização de documentos textuais praticados em bibliotecas, os objetos visuais (as obras de arte) com seus potenciais estéticos, devem ser pensados a partir de processos de reprodução e de visualização que considerem estes elementos, como através de interfaces esteticamente elaboradas que envolvam os usuários. Constata-se, ao final, que a transposição do papel da instituição museológica de cuidadora do patrimônio cultural da sociedade na qual está inserida para o de canal de democratização da informação e difusão do conhecimento mostra-se uma realidade, um caminho sem volta.
305

Integração de conteúdos culturais heterogêneos em ambientes digitais do patrimônio cultural : harmonização de modelos conceituais /

Carrasco, Laís Barbudo. January 2019 (has links)
Orientadora: Silvana Aparecida Borsetti Gregorio Vidotti / Banca: Maria Manuel Lopes de Figeiredo Costa Marques Borges / Banca: Dúnia Lanes Padrón / Banca: Ana Carolina Simionato / Banca: José Fernando Modesto da Silva / Resumo: Em decorrência da rápida difusão de informação em ambientes web, o acesso e a recuperação da informação de sistemas heterogêneos integrados estão se tornando cada vez mais relevantes. O problema de pesquisa circundante é que os acervos digitais de patrimônio cultural, contidos, por exemplo, em bibliotecas, arquivos e museus - utilizam diferentes padrões o que dificultam a integração entre eles. Diante desta premissa, tem-se a seguinte pergunta de pesquisa: é possível desenvolver uma harmonização de modelos conceituais existentes do patrimônio cultural, na perspectiva da integração de conteúdos culturais heterogêneos em ambientes digitais? Assim, a pesquisa propõe o desenvolvimento de uma harmonização de modelos conceituais para a integração de conteúdos culturais heterogêneos digitais de acervos de arquivos, bibliotecas e museus. O objetivo geral desta pesquisa é desenvolver um processo de harmonização de modelos conceituais do patrimônio cultural, na perspectiva da integração de conteúdos culturais heterogêneos em ambientes digitais. A pesquisa é de natureza, teórica e aplicada, e também classificada como exploratória. Alguns projetos e iniciativas internacionais são analisados: CIDOC CRM do ICOM (Modelo de Referência Conceitual), FRBR da IFLA (Requisitos Funcionais para Registros Bibliográficos), RiC da ICA (Modelo de Descrição Arquivística Records in Contexts), EDM da Europeana (Modelo de Dados da Europeana) e o CRMgeo do OCG (Modelo de Descrição Geoespacial). A tese da pe... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Due to the rapid diffusion of information in web environments, the access and the information retrieval from integrated heterogeneous systems are becoming increasingly relevant. The surrounding research problem is that digital cultural heritage collections, for example presented in libraries, in archives and in museums, use different standards which hinder integration between them. Given this premise, the following research question is asked: may it be possible to develop a harmonization of existing conceptual models of cultural heritage for the integration of heterogeneous cultural contents into cultural heritage digital environments? Thus, the research proposes the development of a harmonization of conceptual models for the integration of heterogeneous digital cultural contents of collections of archives, libraries and museums. The general objective of this research is the harmonization of conceptual models of cultural heritage for the integration of heterogeneous cultural contents in digital environments of cultural heritage. The research is theoretical, applied and also classified as exploratory. Some international projects and initiatives are analyzed: CIDOC CRM of ICOM (Conceptual Reference Model), FRBR of IFLA (Functional Requirements for Bibliographic Records), RiC of ICA (Archival Description Model Records in Contexts), EDM of Europeana (Europeana Data Model) and the CRMgeo of OCG (Geospatial Description Model). The thesis of the research consists in affirming that t... (Complete abstract click electronic access below) / Doutor
306

Estudo comparativo de métodos geoestatísticos aplicados em agricultura de precisão

Vicente, Jaqueline [UNESP] January 2004 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2004Bitstream added on 2014-06-13T20:10:57Z : No. of bitstreams: 1 vicente_j_me_prud.pdf: 1330530 bytes, checksum: c5028d2e72eb4e8134ad952f831b6e7d (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / O rendimento das culturas pode variar no espaço em decorrência da heterogeneidade das formas do relevo, dos tipos de solo e do manejo ao qual estes solos têm sido submetidos. Como uma de suas estratégias principais, a agricultura de precisão fundamenta-se na coleta sistemática e o processamento de dados georreferenciados para produzir informações que permitam manter os processos produtivos sob controle, orientando-os ao aprimoramento contínuo. Na agricultura de precisão tem sido adotados dois métodos para obter superfícies que apresentam a distribuição espacial do rendimento. O primeiro utiliza amostragem aleatória do rendimento. O segundo faz uso de uma amostragem sistemática com colhedeira equipada com receptor GPS e um dispositivo de estimativa de peso dos grãos colhidos. Este oferece medidas de rendimentos mais precisas, porém a um custo mais elevado. Sabendo-se que imagens multiespectrais de sensoriamento remoto podem apresentar correlação com a vegetação, as mesmas podem ser utilizadas como dados adicionais no processo de reconstrução de superfícies. Nesta pesquisa, realizou-se o estudo comparativo dos métodos de krigagem ordinária isotrópica e anisotrópica, indicadora isotrópica e a cokrigagem, utilizando dois conjuntos de dados de rendimento de soja, além de imagens multiespectrais obtidas com uma câmara digital. Os resultados obtidos no primeiro experimento, mostraram que o processo de krigagem anisotrópica foi o mais adequado na modelagem do rendimento da soja. Para o segundo experimento, os resultados confirmaram que o processo de krigagem ordinária anisotrópica foi o mais adequado. Porém, os índices de concordância kappa para o segundo experimento não mostraram resultados muito satisfatórios na comparação entre o mapa de referência e os mapas obtidos pelos processos de krigagem... / The crop yield can vary in the space due to the heterogeneity of the relief, of the soil types and to the handling to which these soils have been submitted. As one of their main strategies, the precision farming is based on a systematic acquisition and the georreferenced data processing that produce information to allow to maintaing the productive processes under control, guiding them to the continuous improvement. In the project of precision farming it has been adopted two methods to obtain crop yield distribution surfaces. The first adopt random sampling of the income. The second is based on a systematic sampling with harvester equipped with receiver GPS and a device that estimates the weight of the picked grains. This method offers more accurate measures of crop yields, however at a higher cost. Considering that multiespectral images of remote sensing can be correlated correlation with the vegetation, the same ones can be applied as additional data in the process of surfaces reconstruction. In this research, it has been acomplished a comparative study of the methods of isotropic and anisotropic ordinary kriging, isotropic indicator kriging and the cokriging, using two soybean crop yield data sets, besides multiespectral images obtained with a digital camera. The results of the first experiment, for a crop area reasonably big, showed that the process of anisotropic kriging was the most appropriate in the modelling of the crop yield of the soy. For the second experiment, the results confirmed that the process of anisotropic ordinary kriging was the most appropriate. However, the kappa indexes was not very satisfactory. In that last experiment, it was still tried to accomplish the cokriging process using off nadir multiespectral images acquired by the DuncaTech MS-3100 digital camera. However, it was not possible the accomplishment of the cokriging process...(Complete abstract click electronic access below)
307

Contribuição à análise de interferência e compatibilidade eletromagnética em circuito digital através de simulação numérica

Moura, Diego de January 2011 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T22:46:25Z (GMT). No. of bitstreams: 1 296525.pdf: 3238324 bytes, checksum: 6e0d5b2afeaeaa4df0fc4a33caba606c (MD5) / O presente trabalho tem como objetivo analisar os fenômenos eletromagnéticos que podem causar interferência eletromagnética (IEM) em circuitos digitais, como por exemplo: diafonia e reflexões, bem como abordar os aspectos econômicos causados por problemas de compatibilidade eletromagnética (CEM). Para tanto, foi desenvolvido um circuito digital com o software Proteus e foram realizadas simulações numéricas utilizando os softwares SIwave e Designer. Os resultados foram comparados com dados experimentais. / This paper presents the electromagnetic phenomena that can cause electromagnetic interference (EMI) in digital circuits, such as: crosstalk and reflections. Economical aspects caused by electromagnetic compatibility (EMC) issues on the industry are also addressed. A digital circuit was developted using Proteus software and Numerical simulations using the softwares SIwave and Designer were performed and the results were compared to experimental data.
308

Síntese de alto nível a partir de VHDL comportamental / High level synthesis from behavioral VHDL

Nascimento, Francisco Assis Moreira do January 1992 (has links)
Este trabalho apresenta um sistema de Síntese de Alto Nível — geração automática de uma descrição estrutural no nível RT a partir de uma descrição comportamental algorítmica [MCF 88] —, abordando as tarefas de compilação para representação interna, transformações comportamentais, escalonamento, alocação, mapeamento e gera.são do controle. Sua principal contribuição esta na fase de transformações comportamentais, através da qual é possível explorar globalmente o paralelismo existente na descried° do sistema digital e, de maneira sistemática, pesquisar o espaço de projeto, ou seja, as possíveis implementações para o sistema digital, identificando a que melhor satisfaz as restrições especificadas pelo projetista. A Linguagem de Descried° de Hardware (HDL) usada no sistema de síntese é VHDL que oferece recursos para se descrever comportamento e estrutura, e se especificar restrições de projeto, alem de ter sido adotada como padrão pela IEEE. Parte-se da descried° algorítmica em VHDL comportamental do sistema digital. Tal descrição é compilada para uma representação interna baseada em grafos: cada bloco básico — seqüência de operações sem desvio — e representado por um Grafo de Fluxo de Dados (GFD); a transferência de controle entre blocos básicos — desvios condicionais e incondicionais — é representada pelo Grafo de Fluxo de Controle (GFC); e as relações de hierarquia — entidade, arquitetura, processos, subprogramas — são representadas pelo Grafo de Entidade (GE). O sistema de transformações é tal que a escolha e a ordem da aplicação das transformações possíveis (agrupa blocos consecutivos, agrupa ramos de if, desenrola laços) sobre um GFC gera uma Arvore — a Arvore de Transformações — cujos nodos folha representam os GFD's iniciais e os nodos internos os GFD's obtidos pela transformação aplicada sobre os seus nodos filhos. Construída a Arvore de Transformações, realiza-se um caminhamento em pós-ordem, determinando-se a melhor implementação possível para cada nodo da Arvore de Transformações. Por melhor implementação entenda-se a que, no mínimo, satisfaça as restrições de tempo ou de recursos especificadas pelo projetista. Para cada implementação, obtida usando-se algoritmos de escalonamento, alocação e mapeamento existentes, calcula-se um custo em fungi° dos recursos — unidades funcionais, registradores, interconexões — e do tempo — passos de controle — necessários implementação. Feito isso, caminha-se em pré-ordem pela árvore de Transformações comparando-se o custo da implementação do nodo pai com os custos de implementação dos seus nodos filhos: se o custo dos nodos filhos a maior que o do nodo pai, este é selecionado e seus nodos filhos não são visitados; caso contrario, a transformações que o gerou é descartada e visita-se os nodos filhos. Os nodos selecionados fardo parte da implementação final. O modelo de hardware utilizado adota a divisão clássica de sistema digital em Parte Operativa e Parte de Controle, como apresentada em [DAV 83]. Na implementação do prot6tipo do sistema de síntese escolheu-se, para o escalonamento e a alocação, o algoritmo Force-directed que possui complexidade linear — 0(n2 ) no pior caso — e tem mostrado bons resultados em comparação com os demais existentes [PAU 89]. Para o mapeamento de registradores adotou-se o algoritmo do programa REAL [KUR 87] também de complexidade linear; o mapeamento de unidades funcionais e interconexões baseia-se em [PAN 87]. 0 controlador a obtido diretamente do GFC final: cada nodo representa um estado e as arestas representam as transições entre estados. 0 protótipo foi aplicado a vários exemplos, relatados na literatura, mostrando resultados comparáveis. Aplicando-se o protótipo sobre exemplos com fluxo de controle mais complexo, verifica-se a eficiência do sistema de transformações na exploração do espaço de projeto. / High Level Synthesis is the automatic generation of a structural description of a circuit at the RT level from a behavioral description at the algorithm level [MCF 88]. In this work, a High Level Synthesis System which deals with the tasks of compilation to internal representation, behavioral transformations, scheduling, allocation, mapping and control generation is presented. Its main contribution is the behavioral transformation process. It makes possible the exploration of the global parallelism in the behavioral description and, systematically, to search the design space in order to find the structure that best fits the resource and timing constraints specified by the designer. The Hardware Description Language (HDL) used in the synthesis system is VHDL, HDL standardized by IEEE, which offers facilities for the behavior description, structure description and for the specification of design constraints. The input to the synthesis system is a behavioral algorithmic VHDL description of the digital system under design. This description is translated to an internal representation based on graphs: each basic block (sequence of operations without branches) is represented by a Data Flow Graph (DFG); the transfer of control between basic blocks (conditional and inconditional branches) is represented by a Control Flow Graph (CFG); the hierarchy of description (entity, architectural body, processes, subprograms) is represented by the Entity Graph (EG). The set of behavioral transformations is such that the selection and sequence of applicable transformations (Merge Consecutive Blocks, Merge If Branches, Unroll Loops, etc.) to a CFG can be represented by a tree, called Transformations Tree. In the Transformations Tree, the leaf nodes represent the initial DFGs and the internal nodes represent the DFGs obtained by the transformations applied on its son nodes. After the Transformation Tree has been generated, a transversal post-order is used to determine the best possible implementation for each node of the Transformations Tree. The best possible implementation is the one that, at least, satisfy the timing and resources constraints specified by the designer. A cost is determined in terms of the timing (control steps) and resources (functional units, registers, interconections, etc.) required by each implementation, which is produced using traditional algorithms for scheduling and allocation. Once the implementation for each node is done, a transversal pre-order is used to compare the implementation cost of a node, with the implementation costs of its son nodes: if the cost of its son nodes is greater, the father node is selected and its son nodes are not visited; otherwise the transformation that produced the father node is discarded, and the son nodes are visited. The selected nodes will be in the final implementation. The hardware model used in the synthesis system adopts the classical division of the digital system in a Data-Path and a Controller, such as presented in [DAV 83]. In the implementation of the synthesis system prototype, the Force-Directed algorithm [PAU 89] was adopted for scheduling and allocation, which has linear complexity — in the worst case 0(n2 ) — and produces good results when compared with other algorithms [PAU 91]. The algorithm of the REAL program [KUR 87] was used for the mapping of registers, which also has linear complexity. The mapping of functional units and interconections uses the ideas from [PAN 87]. The controller is directly obtained from the final GFC: each node represents a state and the transitions between states are represented by the edges. The prototype of the synthesis system, which is implemented in C, on SUN workstations, was applied to various examples of the literature and has showed comparable results. When applied to examples with more complex control flow, the efficiency of the set of behavioral transformations in the design space exploration can be verified.
309

Metodologia de análise da variabilidade em FPGA

Amaral, Raul Vieira January 2010 (has links)
Este trabalho visa propor uma metodologia de análise da variabilidade do tempo de atraso de propagação no FPGA. Para alcançar esse objetivo são utilizados três circuitos diferentes: o circuito 1 mede a diferença de atrasos de dois circuitos, o circuito 2 identifica o atraso menor de dois circuitos e, por fim, o terceiro circuito que consiste do oscilador em anel. Cada circuito foi avaliado individualmente numa estrutura BIST, implementada nos FPGA XC3S200-FT256 e EP2C35F672C6. Os métodos utilizados para análise dos dados foram a média móvel, o plano de mínimos quadrados e o teste t-student. A metodologia permitiu mostrar a variabilidade within-die e suas componentes sistêmica e randômica. / This work aims to propose a methodology of analysis of variability of propagation-delay time in FPGA. To achieve this goal three different circuits are implemented: the circuit 1 measures the delay difference of two logic paths, the circuit 2 identifies smallest delay of two logic paths, and finally the third circuit consists of a ring oscillator. Each circuit has been assessed individually in a BIST structure, implemented in FPGAs XC3S200-FT256 and EP2C35F672C6. The methods used for data analysis were the moving average, least-squares plane and the t-student test. The methodology has allowed to evaluate the within-die variability and its systemic and random components.
310

Tolerância a faltas bizantinas usando técnicas de introspecção de máquinas virtuais

Morais, Paulo Henrique de January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2016-04-19T04:15:05Z (GMT). No. of bitstreams: 1 338166.pdf: 1857792 bytes, checksum: 4e04e177628752ee16754f884df17496 (MD5) Previous issue date: 2015 / Atualmente é quase impossível uma pessoa não utilizar direta ou indiretamente um sistema computacional. Ao realizar uma operação bancária ou até mesmo ao fazer compras em uma loja, nós somos auxiliados por sistemas computacionais. Em contrapartida, surgem novos ataques para comprometer o funcionamento correto dos sistemas utilizados. Várias técnicas são utilizadas para que os sistemas funcionem conforme sua especificação, entre elas,destacam-se sistemas tolerantes a faltas bizantinas/intrusões (BFT) através de replicação de máquina de estados (RME). Nessa abordagem, é proposta uma arquitetura de sistema tolerante a intrusões que garante o seu funcionamento correto, mesmo na presença de réplicas faltosas.Este trabalho propõe um algoritmo que une replicação de máquina de estados e sistema de detecção de intrusões (IDS) para tolerar faltas bizantinas. A tecnologia de virtualização é utilizada no algoritmo proposto para replicar o serviço e também para isolar o IDS da aplicação monitorada. Dessa forma, é proposto um detector de intrusões como um componente confiável do sistema BFT. As principais contribuições são: (1) propor um modelo unificado, o qual utiliza replicação de máquina de estados e IDS em conjunto, e faz uso dos recursos da tecnologia de virtualização, (2) detector de intrusões como componente confiável do sistema e (3) elaborar um algoritmo BFT baseado no modelo proposto. Através desta abordagem foi possível reduzir o número de réplicas do sistema de 3f + 1 para 2f + 1 e reduzir o número de passos do protocolo do algoritmo tradicional BFT de Castro e Liskov de 5 para 3 no caso normal de operação e sem precisar da participação do cliente no protocolo.<br> / Abstract : Currently, it is almost impossible for a person not to use a computing system, in a direct or indirect way. When we are using a banking machine, or shopping in a store, we need to use a computing system. On the other hand, there are new attacks to damage the correct workingof the systems. There are several techniques to help the systems to work correctly according to their specification; among them, the Byzantine/intrusions fault tolerant systems (BFT) through the state machine replication (SMR) are important ones. In this perspective, it proposes a system architecture tolerant to intrusions that guarantees its proper functioning, even if there are faulty replicas.This research proposes an algorithm which presents a unified approachby using state machine replication and intrusion detection system in order to tolerate Byzantine faults. The virtualization technology is usedon the proposed algorithm to replicate the service and also to isolate the IDS of the monitored application. Therefore, we propose an intrusion detector as a reliable component of the BFT system. The main contributions are: (1) to propose a unified model, which uses state machine replication together with IDS, using the virtualization technology resources; (2) intrusion detector as a reliable component of the system; and (3) to make a BFT algorithm based on the proposed model. This approach made it possible to decrease the number of the system replicas from the 3f + 1 to 2f + 1, and to reduce the number of steps of the protocol of the BFT traditional algorithm from Castro and Liskov from 5 to 3 in a normal case of operation without the participation of the client in the protocol.

Page generated in 0.0725 seconds