• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A cloud deployed repository for a multi-view component-based modeling CASE tool

MACHADO, Breno Batista 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:55:36Z (GMT). No. of bitstreams: 2 arquivo2271_1.pdf: 2858362 bytes, checksum: 1e63f26ec4d726e3881094fb84cee84e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Modelos oferecem abstrações de um sistema que possibilitam aos engenheiros raciocinarem sobre o sistema se focando apenas nos aspectos relevantes, ignorando detalhes que não são relevantes. UML se tornou um padrão de fato para análise e projeto de sistemas, mas possui algumas limitações óbvias: (1) o conjunto de elementos é muito heterogêneo e grande, e (2) o suporte de ferramentas não é satisfatório. Se faz necessário um sistema de regras que governem o processo de análise e projeto, UML é geral demais. Desenvolvido pela UFPE em conjunto com a Universidade de Mannheim, o objetivo do método KobrA2 é resolver essas limitações através da incorporação de visões especiais de layout, navegação e comportamento de componentes da GUI, e pela introdução do conceito de engenharia de software ortográfica, na qual a construção de Modelos Independentes de Plataforma (PIM) para cada componente de software é realizado em pequenas partes através da construção ortogonal de visões específicas para cada preocupação do componente. Estas visões são então integradas dentro de um Modelo Unificado (SUM) que por sua vez verifica a conformidade com os artefatos do metamodelo de KobrA2. Para gerar ganhos de produtividade, esta integração e verificação deve ser automaticamente implementada através da transformação de modelos interna a uma ferramenta CASE. Conseqüentemente, para ter sucesso, KobrA2 precisa de uma ferramenta que dê suporte ao seu processo de engenharia de sistemas. Esta dissertação de mestrado é parte do projeto WAKAME (Wep App KobrA2 Modeling Environment) que tem por objetivo a construção desta ferramenta CASE. Além de ser a primeira ferramenta CASE dirigida por processo e que dá suporte a um ambiente OO, ortográfico, dirigido por modelos e baseado em componentes, para engenharia de aplicações, incluindo a construção de GUI PIMs, WAKAME também procura inovar por ser (a) distribuída em uma plataforma de cloud computing e acessível universalmente através de qualquer navegador Web, (b) ser de muito fácil aprendizagem graças a sua GUI minimalista, com poucos ícones, no estilo do Google, e (c) de uso eficiente graças ao seu cliente projetado para ser leve e com pouco uso de memória e que forneça um esquema de navegação multidimensional, ortográfico e independente de plataforma, entre visões de baixa granularidade, específica a preocupações, e locais, de um componente. Dentro do projeto WAKAME, esta dissertação de mestrado investiga três principais questões em aberto. A primeira é o projeto do KWAF (KobrA2 Web App Framework), um modelo de ambiente genérico e independente de plataformas para ser instanciado para o projeto específico de aplicações Web. O segundo é um PIM detalhado do WAKAME como um exemplo de instanciação do KWAF. O terceiro é a implementação e a avaliação de serviços baseados na nuvem que (a) persistentemente armazenem as visões PIM e ortográficas de componentes KobrA2, (b) integre estas visões em um SUM persistente, (c) verifique a conformidade do SUM com o meta-modelo de artefatos de KobrA2, (d) use as restrições do meta-modelo tanto para propagar mudanças em uma visão para outras relacionadas ou enviar mensagens de aviso específicas de uma visão a respeito da violação de restrições. As principais contribuições desta dissertação são: (a) o projeto de KWAF, o primeiro estudo de caso para avaliação do processo KobrA2 para aplicações Web ricas com gráficos 2D, (b) o projeto de alto nível do WAKAME como estudo de caso para avaliação de KWAF, (c) a implementação de serviços baseados em nuvem computacional para persistência das visões e integração e validação das visões em um SUM persistente, e (d) a integração e testes destes serviços com a parte cliente do WAKAME que permite a edição ortográfica das visões
2

Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos / A component-oriented framework for large-scale parallel processing of big graphs

Rezende, Cenez Araújo de January 2017 (has links)
REZENDE, Cenez Araújo de. Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos. 2017. 170 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-09-26T11:26:26Z No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-09-26T12:43:31Z (GMT) No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) / Made available in DSpace on 2017-09-26T12:43:31Z (GMT). No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) Previous issue date: 2017 / Faced with the increasing growth of data production to be processed by computer systems, a result of the current technological context and emerging applications of both industrial and scientific interest, researchers and companies have been looking for solutions to leverage large-scale data processing and analysis capacity. In addition to the large volume, many of these data must be processed by high-complexity algorithms, highlighting the inherent difficulties of problems in large graphs (BigGraph), often used to model information from large databases. Although with limitations in graph processing, the MapReduce model has motivated the construction of several high-performance frameworks, in order to meet the demand for efficient large-scale general purpose systems. Such a context has led to the proposal of more specialized solutions, such as Pregel and GAS (Gather, Apply, Scatter), as well as MapReduce extensions to deal with graph processing. However, frameworks that implement these models still have limitations, such as multi-platform constraints and general propose programming models for graphs. In this work, we show how component-oriented parallel programming can deal with MapReduce and conventional Pregel constraints. For that, we have employed HPC shelf, a component-based cloud computing platform for HPC services. On top of this platform, we introduce Gust, a flexible, extensible and adaptable BigGraph framework based on MapReduce. Besides the gains in software architecture, due to the use of a component-oriented approach, we have obtained competitive performance results compared to the state-of-the-art through an experimental study, using estatistical methods to increase confidence. / Diante do progressivo crescimento da produção de dados a serem processados por sistemas de computação, produto do contexto tecnológico vigente e de aplicações emergentes tanto de interesse industrial quanto científico, têm-se buscado soluções para alavancar a capacidade de processamento e análise de dados em larga escala. Além de volumosos, estão propícios a serem processados por algoritmos de alta complexidade, destacando as dificuldades inerentes a problemas em grafos grandes (BigGraph), frequentemente usados para modelar informações de grandes bases de dados. O modelo MapReduce, embora com limitações nesse domínio, abriu o caminho para a construção de vários arcabouços de alto desempenho, buscando atender à demanda por eficiente processamento de larga escala com propósito geral. Isso motivou o surgimento de soluções mais especializadas, voltadas a grafos, tais como os modelos Pregel e GAS (Gather, Apply, Scatter), bem como extensões do próprio MapReduce. Contudo, arcabouços que implementam esses modelos possuem ainda limitações, como restrições a multiplataformas e modelos mais gerais de programação. Neste trabalho, mostramos como a programação paralela orientada a componentes pode lidar com as limitações MapReduce e de modelos convencionais Pregel. Isso é feito usando a HPC Shelf, uma plataforma de computação em nuvem baseada em componentes para serviços HPC. Visando essa plataforma, apresentamos o Gust, um arcabouço BigGraph flexível, extensível e adaptável baseado em MapReduce. Através de estudo experimental, os resultados têm sido competitivos com o estado da arte, tanto em desempenho com na engenharia de software paralelo, com base em interesses funcionais e não funcionais.
3

Eliot: uma arquitetura para internet das coisas: explorando a elasticidade da computação em nuvem com alto desempenho

Gomes, Márcio Miguel 26 February 2015 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-06-15T19:38:10Z No. of bitstreams: 1 Márcio Miguel Gomes_.pdf: 2811232 bytes, checksum: 771d1fb5e5429c1093d60d2dfadb36e3 (MD5) / Made available in DSpace on 2015-06-15T19:38:10Z (GMT). No. of bitstreams: 1 Márcio Miguel Gomes_.pdf: 2811232 bytes, checksum: 771d1fb5e5429c1093d60d2dfadb36e3 (MD5) Previous issue date: 2015-02-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O universo digital vem crescendo a taxas expressivas nos últimos anos. Um dos principais responsáveis por esse aumento no volume de dados é a Internet das Coisas, que em uma definição simplista, consiste em identificar unicamente objetos de forma eletrônica, rastreá-los e armazenar suas informações para posterior utilização. Para lidar com tamanha carga de dados, são necessárias soluções a nível de software, hardware e arquitetura. Estudos realizados neste trabalho apontam que a arquitetura adotada atualmente apresenta limitações, principalmente no quesito escalabilidade. Como escalabilidade é uma característica fundamental para atender a demanda crescente de coleta, processamento e armazenamento de dados, este trabalho apresenta a arquitetura intitulada Eliot, com propostas para resolver justamente a escalabilidade além de oferecer elasticidade ao sistema. Para isso, está sendo proposto o uso de técnicas de bancos de dados distribuídos, processamento paralelo e nuvem computacional, além de reestruturação da arquitetura atual. Os resultados obtidos após a implantação e avaliação do Eliot em um ambiente de nuvem computacional comprovam a viabilidade, eficiência e confiabilidade dessa nova arquitetura proposta. Foi possível identificar melhora do desempenho através da redução nos tempos de resposta e aumento do volume de requisições processadas e trafegadas na rede além da redução nas falhas de conexão e de comunicação de dados. / The digital universe is growing at significant rates in recent years. One of the main responsible for this increase in the volume of data is the Internet of Things, which in a simplistic definition, is to uniquely identify objects electronically, track them and store their information for later use. To deal with such data load, solutions are needed at software, hardware and architecture levels. Studies conducted in this work show that the architecture adopted currently has limitations, specially regarding scalability. As scalability is a key feature to meet the growing demand for collection, processing and storage of data, this paper presents the architecture entitled Eliot, with proposals to precisely resolve the scalability and offers elasticity to the system. For this, is proposed the use of techniques of distributed databases, parallel processing and cloud computing, as well as restructuring of the current architecture. The results obtained after the implementation and evaluation of Eliot in a cloud computing environment demonstrate the feasibility, efficiency and reliability of this new proposed architecture. It was possible to improve performance by reducing response times and increased volume of requisitions processed and trafficked in the network, in addition to the reduction in connection failures and data communication.

Page generated in 0.1014 seconds