• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 483
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7621
  • 2223
  • 1814
  • 1759
  • 1273
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Especificando privacidade em ambientes de computação ubíqua

Kalempa, Vivian Cremer January 2009 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-24T13:21:37Z (GMT). No. of bitstreams: 1 262289.pdf: 2021144 bytes, checksum: f78790f63100558e174cb0f403429e67 (MD5) / A computação ubíqua provê ambientes com serviços e dispositivos interconectados que promovem a integração de infra-estrutura digital na vida das pessoas. Porém, por haver muitos empecilhos técnicos que impedem que a computação ubíqua se torne realidade, o foco da pesquisa atual acaba voltando-se, na maioria dos casos, para os assuntos técnicos como, por exemplo, como conectar novos dispositivos e construir aplicações úteis para melhorar a funcionalidade desses ambientes. Contudo, assuntos como segurança e privacidade ainda são pouco tratados. Além disso, nesses ambientes torna-se difícil a separação entre a segurança física e a segurança digital. Assim, fica claro que o paradigma da computação ubíqua introduz novas vulnerabilidades e exposições aos usuários dos seus ambientes, mostrando que as tecnologias, políticas e leis existentes não estão adequadas para lidar com essas novas situações. Nesta dissertação, os desafios em garantir privacidade em ambientes de computação ubíqua são explorados. Além disso, um metamodelo que endereça alguns destes desafios é descrito, apresentado e simulado na ferramenta Opnet.
52

Arquitetura e sistema de monitoramento para computação em nuvem privada

Chaves, Shirlei Aparecida de 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2012-10-25T03:47:11Z (GMT). No. of bitstreams: 1 287315.pdf: 2205010 bytes, checksum: 2435ae1db3362e6ef90c21cb91db411a (MD5) / A computação em nuvem, como todo novo paradigma tecnológico, apresenta diversos desafios: consolidação de definição e bases conceituais; estabelecimento de consenso sobre aplicações e benefícios; gerenciamento, entre outros. Este trabalho visou a apresentação desse paradigma, focando-se na atividade gerencial de monitoramento. Apresenta-se uma revisão sobre o estado da arte do conceito computação em nuvem, discussão de seus principais modelos de implantação e entrega de serviços, esforços de padronização, questões de gerenciamento e principalmente, monitoramento. Discute-se uma proposta de arquitetura de monitoramento para computação em nuvem que contempla o modelo de implantação de nuvem privada e o modelo de entrega de serviços conhecido como IaaS (Infrastructure as a Service ou Infraestrutura como Serviço). Contempla-se o modelo de nuvem privada e IaaS porque se considera que essa é a combinação que fornece maior controle para a organização que adota o uso da computação em nuvem, assim como também fornece os benefícios de maior aproveitamento do parque tecnológico instalado. Considerou-se também que o modelo de serviço IaaS é um modelo importante a ser estudado e contextualizado, pois pode trazer grandes benefícios às pequenas e médias empresas, laboratórios de pesquisa e organizações governamentais, educacionais, sem fins lucrativos e outras, pois, além de melhorar o aproveitamento do parque tecnológico instalado, pode facilitar atividades acadêmicas, manutenção de software e até postergar aquisição de novos equipamentos. Para teste e validação da arquitetura proposta desenvolve-se um protótipo denominado PCMONS (Private Cloud MONitoring Systems), o qual é programado em módulos e utiliza as linguagens de programação Python, Perl e Linux Shell Scripting. O protótipo inicial foca no monitoramento de máquinas virtuais, dando suporte à plataforma de software para computação em nuvem Eucalyptus e a ferramenta de monitoramento Nagios. Para teste geral da arquitetura e protótipo, implanta-se um ambiente de computação em nuvem privada no Laboratório de Redes e Gerência (LRG) do Departamento de Informática e Estatística (INE) da Universidade Federal de Santa Catarina (UFSC). Apresentam-se os resultados obtidos através de um estudo de caso, o qual considera um possível cenário de uso para uma nuvem privada, com monitoramento realizado pelo PCMONS. / Cloud computing, like any new technological paradigm, presents many challenges: consolidating the definition and conceptual basis, establishing consensus on applications and benefits, management, among others. This work introduces this paradigm, focusing on one of the management activities: monitoring. It presents a review on the stateof- the-art in cloud computing concepts, discuss their main deployment and service delivery models, standardization efforts, management issues and, mainly, monitoring. It also presents and discusses a proposal of an architecture for monitoring cloud computing, which encompasses the private cloud deployment model and the service delivery model known as IaaS (Infrastructure as a Service). Private clouds and IaaS are focused because we consider that this is the combination that provides most control to the organization that adopts the use of cloud computing, and also provides the benefits of increasing the use of installed technological infrastructure. It was also felt that the IaaS service model is an important model to be studied and contextualized, because it can bring great benefits to small and medium enterprises, research laboratories and governmental, educational and nonprofit organizations, and others, because, besides the potential better use of the installed technological infrastructure, it can facilitate academic activities, software maintenance and even to postpone purchase of new equipment. To test and validate the proposed architecture, it is developed a prototype called PCMONS (Private Cloud MONitoring Systems), which is programmed into modules and uses the Python, Perl and Linux Shell Scripting languages. The initial prototype focuses on the monitoring of virtual machines, supporting the Eucalyptus software platform for cloud computing and the monitoring tool Nagios. To test the general architecture and prototype, it is deployed a private cloud computing environment in the Network and Management Laboratory (LRG), Department of Informatics and Statistics (INE), Federal University of Santa Catarina (UFSC). The results obtained are presented through a case study, which considers a possible usage scenario for a private cloud, with monitoring conducted by PCMONS.
53

Uma Abordagem para alocação de máquinas virtuais em ambientes de computação em nuvem verde

Werner, Jorge 25 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2011 / Made available in DSpace on 2012-10-25T20:12:53Z (GMT). No. of bitstreams: 1 292399.pdf: 9539638 bytes, checksum: 14964d0969534d73400db901fa615c47 (MD5) / Este trabalho propõe uma solução para o controle integrado de computação e os elementos do ambiente em nuvens verdes. A abordagem funciona com base em modelos de organização que regulam o comportamento dos componentes autônomos (agentes), que veêm os elementos ambientais como prestadores de serviços, por exemplo, servidores de processamento, carga de serviço de distribuição, processador de tarefa, serviço de redução de temperatura, entre outros. Argumenta-se que esta arquitetura pode suportar até 70\% em relação a otimização energética dos centros de dados que utilizam um modelo de uma infraestrutura por aplicação e até 40\% de otimização em relação a modelos de computação baseados em nuvem. O desafio é oferecer uma solução integrada de gestão do sistema que controla e regula as configurações internas, em resposta à flutuação dinâmica das variáveis externas proporcionando um sistema de informação escalável, flexível e de qualidade. Entende-se assim que a idéia para resolver as questões deva passar por uma estratégia para alocação dinâmica de máquinas virtuais em ambientes de computação em nuvem, a qual se baseia na migração da carga de trabalho de um servidor físico para outro e na realocação de recursos conforme a demanda por capacidade de processamento possa variar, avaliando o cenário de alocação das máquinas virtuais ao término (isto é, on line) da execução de cada tarefa, com o intuito de identificar um hospedeiro ocioso ou subutilizado. O trabalho introduz um modelo de gestão do sistema, e um modelo de alocação e distribuição de máquinas virtuais, analisando o comportamento do sistema, são descritos os princípios de funcionamento, e por fim é apresentado um cenário de caso de uso.
54

Análise experimental de técnicas de estimativa de potência baseadas em macromodelagem em nível RT

Leão, Roberto de Oliveira January 2008 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-23T18:46:24Z (GMT). No. of bitstreams: 1 251943.pdf: 17544529 bytes, checksum: 66ef9db03a2949c8afb8edb6fd5199b6 (MD5) / A rápida evolução da tecnologia VLSI permitiu a integração de um sistema computacional completo em um único chip, conhecido como System-on-Chip (SoC), dedicado à execução de um conjunto de tarefas específicas de um dado domínio de aplicação. Simultaneamente, o crescimento da demanda por produtos portáteis fez da minimização de energia (potência) um objetivo crucial de projeto. Este crescimento, aliado à diminuição do time-to-market, requer ferramentas que capturem o consumo de energia (potência) o mais cedo possível no fluxo de projeto, para evitar a necessidade de re-projeto como resultado de uma detecção tardia de gargalos. Esta dissertação contribui com a extensão da assim-chamada biblioteca PowerSC (a qual é, por sua vez, uma extensão da biblioteca SystemC) para a estimativa de potência no nível RT. Seu foco principal é a análise experimental de quatro técnicas de macromodelagem (duas implementadas no escopo desta dissertação e duas no âmbito de trabalho correlato desenvolvido no mesmo ambiente). Não é do conhecimento do autor a existência de trabalho similar reportando a avaliação quantitativa de uma seleção representativa de técnicas de macromodelagem, implementadas sobre exatamente a mesma infra-estrutura, para uma análise comparativa justa. Os experimentos mostram que a modelagem unificada de funcionalidade e potência em SystemC é viável para exploração do espaço de projeto. Os resultados mostram que, em ferramentas comerciais, a caracterização de modelos pode ser até 34 × mais lenta do que em um fluxo unificado. As limitações identificadas nos macromodelos (resultando em erros de 3% a 837%) indicam que nenhum deveria ser usado como referência única. Em vez disso, propriedades dos sinais de entrada deveriam ser exploradas para escolher um modelo apropriado, apontando o caminho para uma nova abordagem multi-modelos, um tópico de pesquisa promissor.
55

Um método para interpretar outliers em trajetórias de objetos móveis

Aquino, Artur Ribeiro de January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2014-08-06T18:00:39Z (GMT). No. of bitstreams: 1 326743.pdf: 3567685 bytes, checksum: 552537134134fce0fdc4becfa0599acf (MD5) Previous issue date: 2014 / Dispositivos capazes de registrar o rastro de um objeto móvel estão cada vez mais populares. Esses registros são chamados de Trajetórias de Objetos Móveis. Devido ao grande volume desses dados surge a necessidade de criar métodos e algoritmos para extrair alguma informação útil desses dados. Existem vários trabalhos de mineração de dados em trajetórias para detectar diferentes tipos de padrões, porém poucos focam na detecção de outliers entre trajetórias. Os outliers entre trajetórias são aqueles com um comportamento ou característica diferente da maioria. Se a maioria dos objetos estão andando a 80km/h em um determinado trecho, os objetos a 120km/h são os outliers. Outliers de trajetórias podem ser interessantes para descobrir comportamentos suspeitos em um grupo de pessoas, para encontrar rotas alternativas na análise de tráfego e até saber quais são os melhores ou piores caminhos conectando duas regiões de interesse. Não se teve conhecimento de um outro trabalho na literatura que fizesse uma análise mais aprofundada, que interpretasse ou desse significado aos outliers. A semântica dos outliers pode prover mais informação para tomadas de decisão. Nesse trabalho é apresentado um algoritmo para agregar significado aos outliers de trajetórias de motoristas considerando três possíveis razões principais para um desvio: paradas fora do caminho padrão, eventos ou trânsito no caminho padrão. Experimentos são mostrados com dados reais e o método encontra os diferentes tipos e classificações de outliers corretamente.<br> / Abstract : Devices for recording moving object traces are becoming very popular. These traces are called Trajectories of Moving Objects. The huge volume of these data raises the need for developing methods and algorithms to extract useful information from these data. There are many works related to trajectory data mining that nd dierent types of patterns, but only a few of them focused on outlier detection between trajectories. Outliers between trajectories are the ones that behave different from the majority. If the majority of the objects are going on a speed of 80km/h in some part of a road, for example, the objects on 120km/h are the outliers. Trajectory outliers are interesting to discover suspicious behaviors in a group of people, to nd alternative routes in trac analysis and even to discover better and worse paths connecting two regions of interest. To the best of our knowledge, no works so far have made a deeper analysis to either understand or give a meaning to the outliers. Outliers with semantic information can provide more information for decision making. In this work we present an algorithm to add meaning to trajectory outliers of vehicles drivers considering three main possible reasons for a detour: stops outside the standard route, events, and trac jams in the standard path. We show throughexperiments on real data that the method correctly nds the dierent types of outliers and classies them correctly.
56

Spatial interpolation and geostatistic simulation with the incremental Gaussian mixture network

Soares, Sérgio Aurélio Ferreira January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2017-08-22T04:22:16Z (GMT). No. of bitstreams: 1 347911.pdf: 1690914 bytes, checksum: e43f9150ef3cb130f6d5696b46a68fa5 (MD5) Previous issue date: 2016 / Abstract : Geostatistics aggregates a set of tools designed to deal with spatially correlated data. Two significant problems that Geostatistics tackles are the spatial interpolation and geostatistical simulation. Kriging and Sequential Gaussian Simulation (SGS) are two examples of traditional geostatistical tools used for these kinds of problems. These methods perform well when the provided Variogram is well modeled. The problem is that modeling the Variogram requires expert knowledge and a certain familiarity with the dataset. This complexity might make Geostatistics tools the last choice of a non-expert. On the other hand, an important feature present in neural networks is their ability to learn from data, even when the user does not have much information about the particular dataset. However, traditional models, such as Multilayer Perceptron (MLP), do not perform well in spatial interpolation problems due to their difficulty in accurately modeling the spatial correlation between samples. With this motivation in mind, we adapted the Incremental Gaussian Mixture Network (IGMN) model for spatial interpolation and geostatistical simulation applications. The three most important contributions of this work are: 1. An improvement in the IGMN estimation process for spatial interpolation problems with sparse datasets; 2. An algorithm to perform Sequential Gaussian Simulation using IGMN instead of Kriging; 3. An algorithm that mixes the Direct Sampling (DS) method and IGMN for cluster-based Multiple Point Simulation (MPS) with training images. Results show that our approach outperforms MLP and the original IGMN in spatial interpolation problems, especially in anisotropic and sparse datasets (in terms of RMSE and CC). Also, our algorithm for sequential simulation using IGMN instead of Kriging can generate equally probable realizations of the defined simulation grid for unconditioned simulations. Finally, our algorithm that mixes the DS method and IGMN can produce better quality simulations and runs much faster than the original DS. To the best of our knowledge, this is the first time a Neural Network model is specialized for spatial interpolation applications and can perform a geostatistical simulation.<br> / A Geoestatística agrega um conjunto de ferramentas especializadas em dados espacialmente correlacionados. Dois problemas importantes na Geoestatística são a interpolação espacial e a simulação. A Krigagem e a Simulação Sequencial Gaussiana (SGS) são dois exemplos de ferramentas geoestatísticas utilizadas para esses tipos de problemas, respectivamente. A Krigagem e a SGS possuem bom desempenho quando o Variograma fornecido pelo usuário representa bem as correlações espaciais. O problema é que a modelagem do Variograma requer um conhecimento especializado e certa familiaridade com o conjunto de dados em estudo. Essa complexidade pode tornar difícíl a popularização dessas técnicas entre não-especialistas. Por outro lado, uma característica importante presente em Redes Neurais Artificiais é a capacidade de aprender a partir dos dados, mesmo quando o usuário não possui familiaridade com os dados. No entanto, os modelos tradicionais, como o Multilayer Perceptron (MLP), têm dificuldade em identificar a correlação espacial entre amostras e não apresentam um bom desempenho em problemas de interpolação espacial. Com essa motivação, nós adaptamos e aplicamos a Incremental Gaussian Mixture Network (IGMN) em problemas de interpolação espacial e simulação geoestatística. As três principais contribuições deste trabalho são: 1. Melhoria no processo de estimação da IGMN para problemas de interpolação espacial; 2. Um algoritmo para realizar simulação sequencial gaussiana utilizando a IGMN como interpolador; 3. Um algoritmo que mistura o método Direct Sampling (DS) e a IGMN para realizar simulação multiponto (MPS) a partir de imagens de treinamento. Os resultados mostram que a nossa abordagem é mais precisa que o MLP e a IGMN original em problemas de interpolação espacial, especialmente em conjuntos de dados esparsos e com anisotropia (em termos de RMSE e CC). Nosso algoritmo de simulação sequencial que utiliza a IGMN como interpolador é capaz de gerar simulações não condicionadas que respeitam características do conjunto original de dados. Finalmente, nosso algoritmo de simulação multiponto, que mistura o método DS e a IGMN, é capaz de realizar simulações condicionadas e produz realizações com qualidade superior num tempo de execução inferior ao do DS. Até onde sabemos, esta a primeira vez que um modelo de rede neural é especializado para aplicações de interpolação espacial e é capaz de realizar simulação geostatística.
57

Investigação e implementação de estratégias de notificação de invalidação para coerência de cache em ambientes de computação móvel sem fio

Berkenbrock, Carla Diacui Medeiros January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T01:01:42Z (GMT). No. of bitstreams: 1 214169.pdf: 879361 bytes, checksum: c488f179b836a5c95d696fd047a506f0 (MD5) / A computação móvel está se tornando um ambiente de uso comum nos dias atuais. Desta forma é importante fornecer aos seus usuários serviços com uma qualidade similar à encontrada em ambientes cabeados.
58

Aspectos de modelagem de ambientes de computação ubíqua

Campiolo, Rodrigo January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico.Programa de Pós-Graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T01:06:47Z (GMT). No. of bitstreams: 1 222365.pdf: 1595411 bytes, checksum: fe21c401f1c0f38cdc465e4417a24b99 (MD5) / Computação ubíqua, ou pervasive computing, introduz o uso de dispositivos móveis e/ou embutidos em objetos e ambientes, com capacidade de comunicação e computação, interagindo diretamente com o homem. Modelar e simular cenários baseados nessa filosofia implica em sobrepor uma série de desafios, a maioria associada à complexidade e heterogeneidade dos elementos presentes em tais cenários. Este trabalho especifica e discute os requisitos, as características e algumas funções essenciais para modelagem e simulação de ambientes de computação ubíqua, auxiliado por uma linguagem de especificação formal, Object-Z. Para alcançar esse objetivo, foi desenvolvido um estudo minucioso dos elementos, características, desafios, projetos e tecnologias associadas à computação ubíqua. Paralelamente, um estudo sobre os conceitos essenciais de modelagem e projetos relacionados à simulação foram pesquisados e analisados. Baseada nessas pesquisas e análises, a especificação foi desenvolvida e avaliada sob três distintos cenários exemplos de computação ubíqua. Como conseqüência, verifica-se que o modelo provê estruturas para representar, analisar e discutir os aspectos para modelagem e simulação em diversos cenários de computação ubíqua. Através da representação e discussão desses aspectos, é possível não apenas modelar cenários, mas investigar em profundidade, desde as questões básicas até as mais complexas, os desafios, soluções, características e comportamentos nos ambientes.
59

Suporte a simulação distribuída em SystemC

Cantanhede, Roberto Silva January 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2007. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2010-01-12T13:35:53Z No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Approved for entry into archive by Joanita Pereira(joanita) on 2010-01-12T19:04:10Z (GMT) No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) / Made available in DSpace on 2010-01-12T19:04:10Z (GMT). No. of bitstreams: 1 2007_RobertoSilvaCatanhede.pdf: 904030 bytes, checksum: 50f929f665821f0d1a60f501a490e944 (MD5) Previous issue date: 2007 / A contínua evolução tecnológica da microeletrônica viabiliza a integração de sistemas cada vez mais complexos em dispositivos semicondutores. Os sistemas integrados monolí- ticos (SoC - Systems on Chip) atuais permitem a integração de processadores, memórias e módulos dedicados analógicos, digitais e de radio-freqüência em uma única pastilha de silício. A simulação de tais sistemas é uma etapa fundamental no desenvolvimento de um SoC, pois permite a verificação de sua funcionalidade antes do detalhamento de sua im- plementação. A disponibilização de modelos simuláveis dos elementos de processamento de um SoC já nas primeiras etapas do projeto é igualmente fundamental para acelerar o processo de desenvolvimento do software embarcado, permitindo que o código produzido possa ser executado e testado de forma concorrente ao projeto do hardware. A redução do tempo de simulação afeta diretamente o ciclo de projeto do SoC, visto que impacta tanto no desenvolvimento do hardware quanto no do software embarcado. Um dos fatores limitantes na aceleração da simulação é a utilização de sistemas monoproces- sados. Tipicamente, uma descrição de um SoC é compilada e executa em um computador monoprocessado que simula por software o paralelismo do hardware. Uma forma de se atingir o objetivo de acelerar a simulação de sistemas em silício é a executação concorrente dos módulos do sistema. Assim, em vez dos módulos serem simulados em um único pro- cessador, eles podem ser distribuídos entre nodos de um cluster de computadores, sendo simulados com paralelismo real. O objetivo deste trabalho é o estudo da introdução de processamento concorrente em sistemas integrados descritos em SystemC. Essa linguagem atingiu, ao longo dos últimos anos, o status de padrão para descrições em nível de sistema. Baseia-se em C++, in- troduzindo conceitos de orientação a objetos na descrição do hardware. Neste trabalho é proposta a paralelização da simulação de sistemas descritos em SystemC pela distribuição de módulos entre processos de um sistema multiprocessado. A comunicação entre módu- los SystemC se realiza através de filas não bloqueantes, sendo a troca de mensagens entre processos implementada através do protocolo TCP/IP. Como estudo de caso para simulação concorrente foi estudado e descrito em SystemC um algoritmo de segmentação de imagens, que serve como base para métodos para deteção de movimento em seqüências de imagens a ser implementado em um SoC para redes de sensores em desenvolvimento no contexto do projeto NAMITEC. Apresenta-se o algoritmo de segmentação e os resultados de sua simulação em SystemC. _______________________________________________________________________________________ ABSTRACT / The ever increasing evolution of microelectronics allows the integration of more and more complex systems in semiconductor devices. Present day System on Chip (SoC) may integrate processors, memories, analog, mixed-signals, digital and RF modules in a single chip. The simulation of a SoC is a fundamental step in system design, since it permits the verification of its funcionality before dwelling on the details of the hardware design. The availability of simulation models for the processing elements early in the design process is also important for the embedded software development, which may then occur concurrently to hardware design. The reduction of simulation time have a direct impact on the design cycle time, affecting both the hardware and the software development. The use of monoprocessor platforms for simulation is a limiting factor in the searchof simulation speed up. Tipically, the SoC description is compiled and executed in a single process, where the hardware paralelism is simulated by software. One possible way to reduce simulation time is the parallel execution of the hardware models. Instead of being simulated in a single process, the modules may be distributed among nodes of a cluster which execute them in parallel. The goal of this work is to study the introduction of concurrent processing in the simulation of SoC described in SystemC. This languagem attained the status of a standard for system level modeling last years. It is based on C++, introducing object oriented concepts in the hardware modeling. The poposal of this work is to paralelize the simulation by distributing SystemC modules among different processes in a multiprocessor system. The communication among those modules is performmed through non-blocking fifos and is implemented over the TCP/IP protocol. A case study was developed for verification purposes. It consists in the implementation of a image segmentation algorithm to be used as support for image detection in video sequences, as part of the research project NAMITEC which targets the development of a SoC for sensor networks. The image segmentation algorithm and the simulation results in SystemC are presented.
60

Recuperação de conversas de mensagens instantâneas realizadas em navegadores de internet / Instant messaging web-based chat extraction

Salvatori, Ronei Maia 29 February 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-11-30T14:51:01Z No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2012-12-05T13:06:04Z (GMT) No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / Made available in DSpace on 2012-12-05T13:06:04Z (GMT). No. of bitstreams: 1 2012_RoneiMaiaSalvatori.pdf: 3173942 bytes, checksum: e226f98f06e8ef36c70d25a0ed99fdf2 (MD5) / A recuperação de vestígios provenientes de programas de mensagens instantâneas a partir de discos rígidos apreendidos é uma tarefa comumente demandada para a Perícia do Departamento de Polícia Federal. No entanto, essa recuperação é limitada devido às restrições das técnicas existentes. Estas são voltadas para extração de artefatos provenientes das versões instaladas dos comunicadores, e não categorizam os artefatos voláteis deixados pelas versões web implementadas com tecnologia Ajax, que limita a geração de cache pelos navegadores de Internet. Como alternativa este trabalho demonstra que é possível recuperar artefatos referentes às listas de contatos e às conversações realizadas em ambiente web, a partir de procedimentos que dispensam análise aprofundada do protocolo de comunicação utilizado. As hipóteses são baseadas na identificação de padrões de caracteres armazenados no tráfego de rede, despejos de memória, arquivos de paginação e hibernação para criar um dicionário de palavras-chave, possibilitando buscas automáticas.O método derivou-se de testes empíricos baseados na simulação de conversas entre usuários para extrações de artefatos com auxílio de um protótipo. Foi aplicado a estudos de caso nas versões web de quatro comunicadores instantâneos: Windows Live Messenger – WLM, Gtalk, Yahoo!Messenger e Facebook chat. Foram realizadas comparações entre os dicionários criados para cada comunicador, bem como extrações de listas de contatos e conversas entre usuários, demonstrando os procedimentos definidos e confirmando as hipóteses do trabalho. Os resultados foram considerados satisfatórios, podendo a técnica ser adotada para análises forenses post-mortem de discos rígidos, ainda que a volatilidade dos dados nesse ambiente seja um fator limitante de sua eficácia. _______________________________________________________________________________________ ABSTRACT / The recovery of traces from instant messaging programs from hard drives seized is a task commonly demanded for the expertise of the Federal Police Department. However, the recovery is limited by the constraints of existing techniques. These are aimed at extraction of artifacts from the installed versions of communicators, not categorize the artifacts left by the volatile web versions implemented with Ajax technology, which limits the generation of the Internet browsers cache. This work demonstrates that it is possible to recover artifacts relating to lists of contacts and talks held in a web environment, from procedures that do not require detailed analysis of the communication protocol used. The assumptions are based on identifying character patterns stored in network traffic, memory dumps, hibernation and paging files to create a dictionary of keywords, enabling automatic searches. The method was derived from empirical tests based on simulation of conversations between users for extraction of artifacts with the help of a prototype. It was applied to case studies in the web versions of four IM: Windows Live Messenger - WLM, Gtalk, Yahoo!Messenger and Facebook chat. Comparisons between the dictionaries created for each communicator as well as extraction of lists of contacts and conversations between users, showing the procedures defined and confirmed the hypothesis of the work. The results were considered satisfactory, the technique can be adopted for post-mortem forensic analysis of hard disks, although the volatility of the data in this environment is a factor limiting its effectiveness.

Page generated in 0.0674 seconds