Spelling suggestions: "subject:"processamento eletronicos dde dados -"" "subject:"processamento eletronicos dee dados -""
11 |
Visualização de conjuntos de dados grandes formados por esferasInácio, Renan Teston January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2012 / Made available in DSpace on 2013-06-25T21:36:16Z (GMT). No. of bitstreams: 1
313460.pdf: 6437697 bytes, checksum: 28d8c3c074d5febb4534a14f28366597 (MD5) / Este trabalho trata da visualização grá?ca de conjuntos de dados cujas principais características é ser formado por esferas e possuir um grande volume de informações. As principais di?culdades em se trabalhar com dados numerosos é, além da performance, exibir a informação de forma clara. Para solucionar estes problemas foi criado um renderizador básico baseado na técnica de sprites com otimizações em nível de objeto e de imagem. Posteriormente foram analisados algoritmos de renderização com suporte a transparência, onde o depth peeling se mostrou adequado. O algoritmo foi adaptado para permitir a geração de uma imagem incompleta, tendo em vista a performance, porém foi feita uma quanti?cação do erro para limites aceitáveis poderem ser estabelecidos. Finalmente a modalidade de renderização utilizando a técnica de ambient occlusion foi implementada para melhor compreensão espacial dos dados, usando otimização de deferred shading. A performance obtida foi su?ciente para a visualização interativa dos conjuntos de dados.<br> / Abstract : This work deals with the graphical visualization of datasets which the main feature is being formed by spheres e have a great volume of information. The main dificulties when working with numerous data is, in addition to performance, show the information in a clear way. In order to solve these problems a basic renderer was created based on sprites techniques with optimizations at object and image level. Afterwards rendering algorithms with translucency support were analyzed, where depth peeling shown itself adequate. The algorithm was adapted to allow the generation of an incomplete image, in view of performance, but a quantification of the error was created so acceptable thresholds can be established. Finally the rendering mode using the ambient occlusion technique was implemented for better spatial comprehension of the data, using deferred shading optimization. The performance was enough for a interactive visualization of the datasets.
|
12 |
Gerencia confiável de redes locais baseada em diagnóstico distribuídoBona, Luis Carlos Erpen de 07 February 2011 (has links)
Resumo: Este trabalho apresenta uma ferramenta para gerência confiável de redes baseada em diagnóstico distribuído. A ferramenta utiliza os serviços do protocolo de gerência SNMP (Simple Network Management Protocol) e implementa o algoritmo Hi-ADSD with Timestamps. A ferramenta é composta por um sistema onde múltiplos agentes SNMP, executando o algoritmo de diagnóstico distribuído, monitoram a si mesmos e a um conjunto de serviços e dispositivos da rede. A estratégia para garantir a monitoração destes serviços e dispositivos de redes no algoritmo Hi-ADSD with Timestamps é uma contribuição deste trabalho. A MIB (Management Information Base) chamada Test-MIB é especificada neste trabalho, esta MIB é implementada por cada unidade da ferramenta e fornece as estruturas utilizadas pelo algoritmo de diagnóstico. A Test-MIB também permite a definição de procedimentos de testes específicos para os elementos de rede monitorados. As informações obtidas pela ferramenta são disponíveis através da MIB, que pode ser acessada através de aplicações SNMP ou através de uma interface Web. Resultados práticos apresentados incluem a utilização da ferramenta para monitorar uma rede local. Um servidor Web tolerante a falhas usando a ferramenta de diagóstico também é apresentado.
|
13 |
Suporte r persistencia de artefatos para o ambiente distribuído de desenvolvimento de softoware disenMoro, Cesar Fernando 08 February 2011 (has links)
Resumo: O advento e o crescimento da utilização das redes de computadores, tem levado as empresas a adotar, cada vez mais, tecnologias de sistemas distribuídos para implementação de seus sistemas. DiSEN é um ambiente distribuído de desenvolvimento de software, no qual a MDSODI está inserida, que tem como um de seus objetivos, permitir que vários desenvolvedores, atuando em locais distintos, possam trabalhar de forma cooperativa no desenvolvimento de software. No processo de desenvolvimento de um software, os desenvolvedores, geralmente, utilizam diferentes ferramentas de apoio, cada qual aplicada a uma ou mais fases do processo cujos artefatos precisam ser integrados. Meta Object Facility - MOF e, XML Metadata Interchange - XMI são especificações de padrões produzidas pela OMG que têm como um de seus objetivos facilitar a integração de diferentes ferramentas de desenvolvimento de software. Estas especificações podem ser utilizadas para proporcionar o intercâmbio de metadados entre diferentes aplicações e fazem parte do núcleo da Model Driven Architecture - MDA proposta pela OMG. No ambiente corporativo é possível verificar a crescente utilização de repositórios de metadados no armazenamento de artefatos no suporte ao trabalho cooperativo de desenvolvedores de software. O presente trabalho aborda o desenvolvimento de um repositório distribuído de artefatos para o ambiente DiSEN, baseado em um repositório de metadados com suporte aos padrões MOF e, XMI.
|
14 |
Abordagem modular baseada em dicionário para reconhecimento de entidades nomeadas através de associação aproximadaFerri, Junior January 2016 (has links)
Orientador : Marcos Didonet Del Fabro / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 29/08/2016 / Inclui referências : f. 47-50 / Área de concentração: Ciência da computação / Resumo: As técnicas de extração de informações estão sempre evoluindo para serem capazes de trabalhar com a quantidade crescente de dados disponíveis através de textos em linguagem natural e não estruturados. Destacamos a subtarefa da extração de informação conhecida como reconhecimento de entidades nomeadas baseado em dicionário, que realiza a identificação de sequências de caracteres que representam entidades de um determinado grupo, e o bom desempenho dessa subtarefa é fundamental para um bom processo de extração de informação. O reconhecimento de entidades nomeadas (NER) permite definir os sujeitos que são abordados pelo texto como organizações, pessoas, locais, etc. Pontos que ainda são desafios dentro da subtarefa de NER para sistemas baseados em dicionário são a presença de erros ortográficos nos textos e a existência de poucos sistemas de NER capazes de trabalhar em diferentes contextos. Esse trabalho apresenta uma abordagem para o reconhecimento de entidades nomeadas baseado em dicionário. Para trabalhar com textos que podem apresentar erros ortográficos, é utilizada uma busca por associação aproximada baseada na distância de edição entre as sequências de caracteres que representam a entrada do dicionário e as sub-partes do texto. Para promover a redução do erro entre as sequências de caracteres (SC) e facilitar a busca por associação aproximada são utilizados algoritmos de transformação. Esses algoritmos permitem a busca sobre o dicionário encontrar uma quantidade maior de entidades se comparada com as buscas utilizando as SCs originais para um mesmo valor da distância de edição aceita. As transformações também colaboram com a redução do tamanho das SCs e com a criação de mais prefixos similares, promovendo uma redução no tamanho da árvore de prefixo que indexa o dicionário. Para melhorar a precisão da nossa abordagem, disponibilizamos recursos de filtragem que fazem uso de métricas de similaridade para eliminar entidades falsas que foram retornadas da busca sobre o dicionário. Nossa abordagem também foi projetada para permitir a configuração de alguns componentes de forma a ser adaptada para diferentes casos de estudo. Palavras-chave: Reconhecimento de entidades nomeadas, Associação Aproximada de Sequências de Caracteres, Conversão fonética. / Abstract: The information extraction techniques are always evolving to be able to work with the increasing amount of unstructured data available through texts in natural language. We highlight the information extraction subtask known as dictionary-based named entity recognition, which performs the identification of strings that represent entities of a particular group, and the good performance of this sub-task is critical for a good extracting information process. The named entity recognition (NER) defines the nouns that are covered by the text as organizations, people, places, etc. Some subjects that still represent chalenges in the sub-task of NER for currently systems that are dictionary-based are the presence of spelling errors in the text and the existence of few NER systems that are able to work in different contexts. This work presents an approach of a dictionary-based named entity recognition. Looking to work with texts that may have spelling errors, we use an approximate string matching search based on edit distance between the strings that represent the entries of the dictionary and the substrings of the text. To further the reduction of the error between the strings and facilitate the search using approximate matching we used transformation algorithms. These algorithms allow the search on the dictionary find a greater amount of entities if compared with the search using the original strings, for the same value of Edit Distance. Transformations also promote the strings size reduction and create more similar prefixes, promoting a reduction in the size of the prefix tree (trie) that indexes the dictionary. To improve the precision of our approach, we provide filtering capabilities that make use of similarity metrics to eliminate false entities that have been returned from the search on the dictionary trie. Our approach is also designed to enable the configuration of some components to be adapted to different study cases. Keywords: Named entity recognition, Approximate string matching, Phonetic conversion.
|
15 |
Sistemas de pagamento eletronico : classificação, analise e implementaçãoFerreira, Lucas de Carvalho 05 November 1998 (has links)
Orientador: Ricardo Dahab / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-24T11:12:07Z (GMT). No. of bitstreams: 1
Ferreira_LucasdeCarvalho_M.pdf: 3333676 bytes, checksum: c48a70dc96136485eca59da281e1e363 (MD5)
Previous issue date: 1998 / Resumo: Esta dissertação trata de sistemas projetados para permitir a transferência de valor através de comunicação eletrônica, ou, simplesmente, sistemas de pagamento eletrônico. Estes sistemas terão fundamental importância no desenvolvimento do comércio na Internet e fora dela. Três aspectos desses sistemas são abordados: classificação, análise formal e implementação. A classificação consiste de um esquema que descreve um sistema de pagamento através da sua tipificação, dos requisitos desejáveis, seu funcionamento e fatores de implementação. Este esquema permite analisar, comparar e melhor compreender os sistemas de pagamento. Durante o processo de análise, pudemos encontrar similaridades em diversas classes de tais sistemas. A análise formal é feita pela aplicação de dois métodos adequados à análise de sistemas criptográficos. Em conjunto com a aplicação destes métodos formais, é apresentado um modelo que generaliza o funcionamento dos sistemas de pagamento baseados em cartões de crédito, e que facilita a compreensão deste tipo de sistema. Utilizando o esquema de classificação proposto, implementamos um protótipo capaz de automatizar parte do processo de construção de sistemas de pagamento / Abstract: Not informed / Mestrado / Mestre em Ciência da Computação
|
16 |
S. M. A. C. um Sistema par Manipulação e Armazenagem de ConhecimentoSignoretti, Alberto 08 June 1990 (has links)
Orientador: Fernando A. C. Gomide / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica / Made available in DSpace on 2018-07-13T21:48:56Z (GMT). No. of bitstreams: 1
Signoretti_Alberto_M.pdf: 9709045 bytes, checksum: 6487227563bb9d7b9ff83c0365d22e2d (MD5)
Previous issue date: 1990 / Resumo: O presente trabalho define, especifica e implementa o protótipo de um Sistema para Manipulação e Armazenagem de Conhecimento genérico, o SMAC. Este sistema adota, como forma de representação do conhecimento, arquiteturas tidas corno convencionais no universo da Inteligência Artificial (IA), agrupadas e manipuladas de uma maneira a tornar-se compatível com as tendências atuais da área. São utilizadas estruturas baseadas em frames, regras e procedimentos, que podem ser usadas isolada ou conjuntamente, dependendo do tipo de conhecimento a ser representado, do estilo de programação do usuário do sistema e da aplicação em mente. Além da generalidade quanto ao conhecimento a ser representado, o sistema visa ser genérico também com relação à aplicação para a qual pode ser configurado / Abstract: This work defines, specifies and implements the prototype of a system for knowledge storage and management, the SMAC. The system uses, as knowledge representation schemes, conventional architectures within the Artificial Intelligence (AI) universe, grouped and organized in a form to be compatible with the current tendencies in the area. The system uses, as knowledge representation structures, frames, rules and procedures. The structures can be used either together or one or two of them alone, depending of the kind of knowledge that it is needed to represent, and user programming style. The SMAC intends to be a modular and generic knowledge storage and manipulation tool which can be configured for several engineering and computer science applications / Mestrado / Mestre em Engenharia Elétrica
|
17 |
Tabelas de decisão e sua implementaçãoTakaoka, Hiroo January 1976 (has links)
Dissertação (mestrado) - Universidade de São Paulo. Faculdade de Economia e Administração, Departamento de Administração / Made available in DSpace on 2012-10-15T19:48:09Z (GMT). No. of bitstreams: 0
|
18 |
Aplicações de tempo real em um ambiente baseado em multicomputador : serviços de suporte e avaliação de desempenho /Corrêa, Edgard de Faria January 1998 (has links)
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-17T06:43:08Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-09T01:03:39Z : No. of bitstreams: 1
138344.pdf: 1738155 bytes, checksum: 1a6f20d3d9bdc367925c698a0229ff9a (MD5)
|
19 |
NazcaOliveira, Karine Barbosa de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-02-05T20:11:50Z (GMT). No. of bitstreams: 1
328259.pdf: 2078189 bytes, checksum: 40d2695a3b103c3b486d69b3fc14dcbf (MD5)
Previous issue date: 2014 / O casamento de esquemas em nível de estrutura é um processo que pode ser aplicado em diversas áreas que envolvem a manipulação de dados heterogêneos. A ideia principal é casar elementos de estruturas que podem ser encontradas em diferentes fontes de dados, como por exemplo, elementos XML, classes de objetos, tabelas relacionais, web forms entre outras. Este processo é considerado um desafio devido ao grande número de representações heterogêneas de estruturas semanticamente similares. Neste trabalho, descreve-se um método de casamento de esquemas em nível de estruturas aplicado em um processo de busca. O objetivo é utilizar não só a própria estrutura no processo de casamento, mas também dados adicionais armazenados nas fontes de dados, que podem ser suficientemente representativos para caracterizar a estrutura. Estes dados podem ser chamados de "informações contextuais" e servem como base para ajustar o escore final de similaridade entre a estrutura da consulta e as estruturas encontradas nas fontes de dados. O método proposto é composto pelos seguintes componentes: i) funções de similaridade atômicas para elementos do esquema; ii) algoritmo para detecção das informações contextuais; e iii) árvore de decisão para o ajuste final de similaridade. Foram realizados experimentos que demonstram a efetividade do método com melhoria da precisão em relação ao algoritmo usado como "baseline".<br> / Abstract : Structure-level matching is an important matching operator in variousapplications areas involving heterogeneous data. The main ideia is tomatching combinations of elements that appear together in a structure,which can be found in dierent data models such as XML elements, objectclasses, relational tables, structures of web forms, and so one. Thisis a challenge due to large number of distinct representations of structuressemantically similar. In this work, we describe a structure-levelmatching method developed to search for structures representations indata sources, taking into account the similarity score between structureelements and its context. The main goal is to use any internalinformation stored in the data source as context beyond the structureinformation, which can be representative enough to characterizethe structure representation itself, for adjusting the similarity scorebetween structure elements. The proposed method consists of the followingcomponents: i) atomic similarity functions to schema elements;ii) detection algorithm of contextual information; e iii) decision tree fornal similarity score adjusts. We also present experiments showing theeectiveness of our method.
|
20 |
WCET-aware prefetching of unlocked instruction cachesWuerges, Emílio January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2015. / Made available in DSpace on 2015-09-08T04:10:00Z (GMT). No. of bitstreams: 1
334103.pdf: 474482 bytes, checksum: e8c8770f10b59df4df1e70854aa60a94 (MD5)
Previous issue date: 2015 / A computação embarcada requer crescente vazão sob baixa potência. Ela requer um aumento de eficiência energética quando se executam programas de crescente complexidade. Muitos sistemas embarcados são também sistemas de tempo real, cuja correção temporal precisa ser garantida através de análise de escalonabilidade, a qual costuma assumir que o WCET de uma tarefa é conhecido em tempo de projeto. Como resultado da crescente complexidade do software, uma quantidade significativa de energia é gasta ao se prover instruções através da hierarquia de memória. Como a cache de instruções consome cerca de 40% da energia gasta em um processador embarcado e afeta a energia consumida em memória principal, ela se torna um relevante alvo para otimização. Entretanto, como ela afeta substancialmente o WCET, o comportamento da cache precisa ser restrito via  cache locking ou previsto via análise de WCET. Para obter eficiência energética sob restrições de tempo real, é preciso estender a consciência que o compilador tem da plataforma de hardware. Entretanto, compiladores para tempo real ignoram a energia, embora determinem rapidamente limites superiores para o WCET, enquanto compiladores para sistemas embarcados estimem com precisão a energia, mas gastem muito tempo em  profiling . Por isso, esta tese propõe um método unificado para estimar a energia gasta em memória, o qual é baseado em Interpretação Abstrata, exatamente o mesmo substrato matemático usado para a análise de WCET em caches. As estimativas mostram derivadas que são tão precisas quanto as obtidas via  profiling , mas são computadas 1000 vezes mais rápido, sendo apropriadas para induzir otimização de código através de melhoria iterativa. Como  cache locking troca eficiência energética por previsibilidade, esta tese propõe uma nova otimização de código, baseada em pré-carga por software, a qual reduz a taxa de faltas de caches de instruções e, provadamente, não aumenta o WCET. A otimização proposta é comparada com o estado-da-arte em  cache locking parcial para 37 programas do  Malardalen WCET benchmark para 36 configurações de cache e duas tecnologias distintas (2664 casos de uso). Em média, para obter uma melhoria de 68% no WCET,  cache locking parcial requer 8% mais energia. Por outro lado, a pré-carga por software diminui o consumo de energia em 11% enquanto melhora em 15% o WCET, reconciliando assim eficiência energética e garantias de tempo real.<br> / Abstract : Embedded computing requires increasing throughput at low power budgets. It asks for growing energy efficiency when executing programs of rising complexity. Many embedded systems are also real-time systems, whose temporal correctness is asserted through schedulability analysis, which often assumes that the WCET of each task is known at design-time. As a result of the growing software complexity, a significant amount of energy is spent in supplying instructions through the memory hierarchy. Since an instruction cache consumes around 40% of an embedded processor s energy and affects the energy spent in main memory, it becomes a relevant optimization target. However, since it largely impacts the WCET, cache behavior must be either constrained via cache locking or predicted by WCET analysis. To achieve energy efficiency under real-time constraints, a compiler must have extended awareness of the hardware platform. However, real-time compilers ignore energy, although they quickly determine bounds for WCET, whereas embedded compilers accurately estimate energy but require time-consuming profiling. That is why this thesis proposes a unifying method to estimate memory energy consumption that is based on Abstract Interpretation, the very same mathematical framework employed for the WCET analysis of caches. The estimates exhibit derivatives that are as accurate as those obtained by profiling, but are computed 1000 times faster, being suitable for driving code optimization through iterative improvement. Since cache locking gives up energy efficiency for predictability, this thesis proposes a novel code optimization, based on software prefetching, which reduces miss rate of unlocked instruction caches and, provenly, does not increase the WCET. The proposed optimization is compared with a state-of-the-art partial cache locking technique for the 37 programs of the Malardalen WCET benchmarks under 36 cache configurations and two distinct target technologies (2664 use cases). On average, to achieve an improvement of 68% in the WCET, partial cache locking required 8% more energy. On the other hand, software prefetching decreased the energy consumption by 11% while leading to an improvement of 15% in the WCET, thereby reconciling energy efficiency and real-time guarantees.
|
Page generated in 0.1482 seconds