Spelling suggestions: "subject:"nuvem computacional"" "subject:"ouvem computacional""
1 |
A cloud deployed repository for a multi-view component-based modeling CASE toolMACHADO, Breno Batista 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:55:36Z (GMT). No. of bitstreams: 2
arquivo2271_1.pdf: 2858362 bytes, checksum: 1e63f26ec4d726e3881094fb84cee84e (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2009 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Modelos oferecem abstrações de um sistema que possibilitam aos engenheiros
raciocinarem sobre o sistema se focando apenas nos aspectos relevantes, ignorando
detalhes que não são relevantes. UML se tornou um padrão de fato para análise e projeto
de sistemas, mas possui algumas limitações óbvias: (1) o conjunto de elementos é muito
heterogêneo e grande, e (2) o suporte de ferramentas não é satisfatório. Se faz necessário
um sistema de regras que governem o processo de análise e projeto, UML é geral demais.
Desenvolvido pela UFPE em conjunto com a Universidade de Mannheim, o
objetivo do método KobrA2 é resolver essas limitações através da incorporação de visões
especiais de layout, navegação e comportamento de componentes da GUI, e pela
introdução do conceito de engenharia de software ortográfica, na qual a construção de
Modelos Independentes de Plataforma (PIM) para cada componente de software é
realizado em pequenas partes através da construção ortogonal de visões específicas para
cada preocupação do componente. Estas visões são então integradas dentro de um Modelo
Unificado (SUM) que por sua vez verifica a conformidade com os artefatos do metamodelo
de KobrA2. Para gerar ganhos de produtividade, esta integração e verificação deve
ser automaticamente implementada através da transformação de modelos interna a uma
ferramenta CASE. Conseqüentemente, para ter sucesso, KobrA2 precisa de uma
ferramenta que dê suporte ao seu processo de engenharia de sistemas.
Esta dissertação de mestrado é parte do projeto WAKAME (Wep App KobrA2
Modeling Environment) que tem por objetivo a construção desta ferramenta CASE. Além
de ser a primeira ferramenta CASE dirigida por processo e que dá suporte a um ambiente
OO, ortográfico, dirigido por modelos e baseado em componentes, para engenharia de
aplicações, incluindo a construção de GUI PIMs, WAKAME também procura inovar por
ser (a) distribuída em uma plataforma de cloud computing e acessível universalmente
através de qualquer navegador Web, (b) ser de muito fácil aprendizagem graças a sua GUI
minimalista, com poucos ícones, no estilo do Google, e (c) de uso eficiente graças ao seu
cliente projetado para ser leve e com pouco uso de memória e que forneça um esquema de navegação multidimensional, ortográfico e independente de plataforma, entre visões de
baixa granularidade, específica a preocupações, e locais, de um componente.
Dentro do projeto WAKAME, esta dissertação de mestrado investiga três principais
questões em aberto. A primeira é o projeto do KWAF (KobrA2 Web App Framework), um
modelo de ambiente genérico e independente de plataformas para ser instanciado para o
projeto específico de aplicações Web. O segundo é um PIM detalhado do WAKAME
como um exemplo de instanciação do KWAF. O terceiro é a implementação e a avaliação
de serviços baseados na nuvem que (a) persistentemente armazenem as visões PIM e
ortográficas de componentes KobrA2, (b) integre estas visões em um SUM persistente, (c)
verifique a conformidade do SUM com o meta-modelo de artefatos de KobrA2, (d) use as
restrições do meta-modelo tanto para propagar mudanças em uma visão para outras
relacionadas ou enviar mensagens de aviso específicas de uma visão a respeito da violação
de restrições.
As principais contribuições desta dissertação são: (a) o projeto de KWAF, o
primeiro estudo de caso para avaliação do processo KobrA2 para aplicações Web ricas
com gráficos 2D, (b) o projeto de alto nível do WAKAME como estudo de caso para
avaliação de KWAF, (c) a implementação de serviços baseados em nuvem computacional
para persistência das visões e integração e validação das visões em um SUM persistente, e
(d) a integração e testes destes serviços com a parte cliente do WAKAME que permite a
edição ortográfica das visões
|
2 |
Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos / A component-oriented framework for large-scale parallel processing of big graphsRezende, Cenez Araújo de January 2017 (has links)
REZENDE, Cenez Araújo de. Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos. 2017. 170 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017. / Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-09-26T11:26:26Z
No. of bitstreams: 1
2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-09-26T12:43:31Z (GMT) No. of bitstreams: 1
2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) / Made available in DSpace on 2017-09-26T12:43:31Z (GMT). No. of bitstreams: 1
2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5)
Previous issue date: 2017 / Faced with the increasing growth of data production to be processed by computer systems, a result of the current technological context and emerging applications of both industrial and scientific interest, researchers and companies have been looking for solutions to leverage large-scale data processing and analysis capacity. In addition to the large volume, many of these data must be processed by high-complexity algorithms, highlighting the inherent difficulties of problems in large graphs (BigGraph), often used to model information from large databases. Although with limitations in graph processing, the MapReduce model has motivated the construction of several high-performance frameworks, in order to meet the demand for efficient large-scale general purpose systems. Such a context has led to the proposal of more specialized solutions, such as Pregel and GAS (Gather, Apply, Scatter), as well as MapReduce extensions to deal with graph processing. However, frameworks that implement these models still have limitations, such as multi-platform constraints and general propose programming models for graphs. In this work, we show how component-oriented parallel programming can deal with MapReduce and conventional Pregel constraints. For that, we have employed HPC shelf, a component-based cloud computing platform for HPC services. On top of this platform, we introduce Gust, a flexible, extensible and adaptable BigGraph framework based on MapReduce. Besides the gains in software architecture, due to the use of a component-oriented approach, we have obtained competitive performance results compared to the state-of-the-art through an experimental study, using estatistical methods to increase confidence. / Diante do progressivo crescimento da produção de dados a serem processados por sistemas de computação, produto do contexto tecnológico vigente e de aplicações emergentes tanto de interesse industrial quanto científico, têm-se buscado soluções para alavancar a capacidade de processamento e análise de dados em larga escala. Além de volumosos, estão propícios a serem processados por algoritmos
de alta complexidade, destacando as dificuldades inerentes a problemas em grafos grandes (BigGraph), frequentemente usados para modelar informações de grandes bases de dados. O modelo MapReduce, embora com limitações nesse domínio, abriu o caminho para a construção de vários arcabouços de alto desempenho, buscando atender à demanda por eficiente processamento de larga escala com propósito geral. Isso motivou o surgimento de soluções mais especializadas, voltadas a grafos, tais como os modelos Pregel e GAS (Gather, Apply, Scatter), bem como extensões do próprio MapReduce. Contudo, arcabouços que implementam esses modelos possuem ainda limitações, como restrições a multiplataformas e modelos mais gerais de programação. Neste trabalho, mostramos como a programação paralela orientada a
componentes pode lidar com as limitações MapReduce e de modelos convencionais Pregel. Isso é feito usando a HPC Shelf, uma plataforma de computação em nuvem baseada em componentes para serviços HPC. Visando essa plataforma, apresentamos o Gust, um arcabouço BigGraph flexível, extensível e adaptável baseado em MapReduce. Através de estudo experimental, os resultados têm sido competitivos
com o estado da arte, tanto em desempenho com na engenharia de software paralelo, com base em interesses funcionais e não funcionais.
|
3 |
Eliot: uma arquitetura para internet das coisas: explorando a elasticidade da computação em nuvem com alto desempenhoGomes, Márcio Miguel 26 February 2015 (has links)
Submitted by Maicon Juliano Schmidt (maicons) on 2015-06-15T19:38:10Z
No. of bitstreams: 1
Márcio Miguel Gomes_.pdf: 2811232 bytes, checksum: 771d1fb5e5429c1093d60d2dfadb36e3 (MD5) / Made available in DSpace on 2015-06-15T19:38:10Z (GMT). No. of bitstreams: 1
Márcio Miguel Gomes_.pdf: 2811232 bytes, checksum: 771d1fb5e5429c1093d60d2dfadb36e3 (MD5)
Previous issue date: 2015-02-26 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O universo digital vem crescendo a taxas expressivas nos últimos anos. Um dos principais responsáveis por esse aumento no volume de dados é a Internet das Coisas, que em uma definição simplista, consiste em identificar unicamente objetos de forma eletrônica, rastreá-los e armazenar suas informações para posterior utilização. Para lidar com tamanha carga de dados, são necessárias soluções a nível de software, hardware e arquitetura. Estudos realizados neste trabalho apontam que a arquitetura adotada atualmente apresenta limitações, principalmente no quesito escalabilidade. Como escalabilidade é uma característica fundamental para atender a demanda crescente de coleta, processamento e armazenamento de dados, este trabalho apresenta a arquitetura intitulada Eliot, com propostas para resolver justamente a escalabilidade além de oferecer elasticidade ao sistema. Para isso, está sendo proposto o uso de técnicas de bancos de dados distribuídos, processamento paralelo e nuvem computacional, além de reestruturação da arquitetura atual. Os resultados obtidos após a implantação e avaliação do Eliot em um ambiente de nuvem computacional comprovam a viabilidade, eficiência e confiabilidade dessa nova arquitetura proposta. Foi possível identificar melhora do desempenho através da redução nos tempos de resposta e aumento do volume de requisições processadas e trafegadas na rede além da redução nas falhas de conexão e de comunicação de dados. / The digital universe is growing at significant rates in recent years. One of the main responsible for this increase in the volume of data is the Internet of Things, which in a simplistic definition, is to uniquely identify objects electronically, track them and store their information for later use. To deal with such data load, solutions are needed at software, hardware and architecture levels. Studies conducted in this work show that the architecture adopted currently has limitations, specially regarding scalability. As scalability is a key feature to meet the growing demand for collection, processing and storage of data, this paper presents the architecture entitled Eliot, with proposals to precisely resolve the scalability and offers elasticity to the system. For this, is proposed the use of techniques of distributed databases, parallel processing and cloud computing, as well as restructuring of the current architecture. The results obtained after the implementation and evaluation of Eliot in a cloud computing environment demonstrate the feasibility, efficiency and reliability of this new proposed architecture. It was possible to improve performance by reducing response times and increased volume of requisitions processed and trafficked in the network, in addition to the reduction in connection failures and data communication.
|
Page generated in 0.0859 seconds