Spelling suggestions: "subject:"distribuídos"" "subject:"distribuída""
131 |
Information Quality Criteria Analysis in Query Reformulation in Dynamic Distributed EnvironmentsSOUZA, Bruno Felipe de França 09 September 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-10T13:03:19Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação Bruno Souza.pdf: 3055649 bytes, checksum: 5cedaf83e4e87135a1f22f1bb7c1dd09 (MD5) / Made available in DSpace on 2015-03-10T13:03:19Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação Bruno Souza.pdf: 3055649 bytes, checksum: 5cedaf83e4e87135a1f22f1bb7c1dd09 (MD5)
Previous issue date: 2013-09-09 / FACEPE / Ambientes dinâmicos e distribuídos são sistemas descentralizados que fornecem aos usuários recursos de consultas sobre um conjunto de fontes de dados heterogêneas, distribuídas e autônomas (peers). Sistemas de Integração de Dados, Peer Data Management System (PDMS) e Dataspaces são exemplos de tais sistemas. Eles são constituídos por peers que pertencem a um domínio específico e estão ligados entre si por meio de correspondências semânticas. No entanto, um desafio inerente em ambientes dinâmicos e distribuídos é o processo de reformulação de consulta entre um par de peers. Quando um usuário coloca uma consulta em um peer, a fim de adquirir mais informações, a consulta deve ser reformulada de acordo com o esquema dos peers vizinhos. Neste processo podem surgir alguns problemas como a perda semântica e a degradação da consulta.
A perda semântica e degradação da consulta são problemas relacionados à perda de conceitos semânticos durante a reformulação. Por outro lado, em um ambiente semanticamente rico, ao invés de uma perda semântica, a consulta pode ter um enriquecimento semântico por meio da agregação de conceitos semanticamente relacionados durante a reformulação. Neste sentido, a consulta do usuário pode ser enriquecida e resultados semânticos mais ricos podem ser recuperados.
Critérios de qualidade da informação têm sido usados em alguns trabalhos para avaliar o nível de qualidade dos elementos de um ambiente dinâmico e distribuído como, por exemplo, peers, dados e a resposta da consulta. Estes critérios são medidas dinâmicas proporcionadas pelo sistema e servem como uma pontuação que pode ser constantemente avaliada para obter o nível real de qualidade.
Neste trabalho, apresentamos quatro critérios de qualidade da informação que medem a perda e o ganho de conceitos semânticos durante a reformulação da consulta entre os pares de peers. Nós apresentamos um exemplo da nossa abordagem e os algoritmos de avaliação de critérios. Também damos as nossas definições para os problemas de perda semântica e degradação da consulta. Por fim, apresentamos a experimentação que fizemos com o PDMS SPEED e os resultados obtidos. / Dynamic distributed environments are decentralized systems that provide users with querying capabilities over a set of heterogeneous, distributed and autonomous data sources (peers). Data Integration Systems, Peer Data Management Systems (PDMS) and Dataspaces are examples of such systems. They are composed by peers that belong to a specific domain and are linked to each other by correspondences (semantic connections). Nonetheless, a challenge inherent to dynamic distributed environments is the query reformulation process between a pair of peers. When a user poses a query at a peer, in order to acquire more information, the query should be reformulated in accordance with the neighbor peers schema. In this process some problems as semantic loss and query degradation can arise.
The semantic loss and query degradation are problems related to the loss of semantic concepts during query reformulation. In the other hand, in such a semantic environment instead of a semantic loss the query can have a semantic enrichment by aggregating semantic related concepts during reformulation. In this sense, the user’s query can be enriched and semantically richer results can be delivered.
Information Quality criteria has been used in some works to evaluate the level of quality of the distributed dynamic environment’s elements such as, peers, data and query answer. These criteria are dynamic measures provided by the system and serve as scores that can be constantly evaluated to get the actual level of quality.
In this work we present four Information Quality criteria that measure the loss and enrichment of semantic concepts during query reformulation among peers. We present an example of our analysis and the algorithms that implement the evaluation of the presented criteria. We also give our definitions to the semantic loss and query degradation problems. Finally, we present the experimentation we have done with the SPEED PDMS and the obtained results.
|
132 |
Qualidade de serviço de detectores de defeitos na presença de rajadas de perdas de mensagens / Quality of service of failure detectors in the presence of message loss burstsSotoma, Irineu 29 September 2006 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T10:13:43Z (GMT). No. of bitstreams: 1
Sotoma_Irineu_D.pdf: 1483229 bytes, checksum: 9fd71c5e3e9cefbd8ffefab03b2eb566 (MD5)
Previous issue date: 2006 / Resumo: A Qualidade de Serviço (QoS) de detectores de defeitos determina a rapidez que um detector de defeitos q detecta a quebra de um processo p, e a precisão que q informa essa quebra. Em redes de longa distância e em redes sem fio, a ocorrência de quebras de processo, altas variações de atraso e perdas de pacotes em rajadas são comuns. Nestas condições, uma escolha adequada de parâmetros, por um configurador de detectores de defeitos, para manter o detector de defeitos satisfazendo os requisitos de QoS, é requerida. Por isso, este trabalho propõe um configurador de detector de defeitos que leva em conta a distribuição de probabilidade de comprimento de rajadas de perdas de pacotes de mensagem, através do uso de um modelo de Markov. Os resultados da simulação mostram que os parâmetros fornecidos pelo configurador proposto tendem a levar o detector de defeitos a satisfazer os requisitos de QoS em redes sujeitas a rajadas de perdas. Adicionalmente, a pesquisa mostra que é possível melhorar a precisão do detector de defeitos usando uma combinação de estimadores simples de atrasos de mensagens / Abstract: The quality of service (QoS) of failure detectors determines how fast a failure detector q detects the crash of a process p, and how accurate q informs the p crash. In wide area networks and wireless networks, the occurrence of process crashes, high delay variations and burst losses in message packets are common. In these conditions, an adequate choice in the failure detector parameters, by a failure detector configurator, to keep the failure detector satisfying the QoS requirements, is required. Therefore, this work proposes a failure detector Configurator which takes into account the probability distribution of loss burst lengths of message packets, by using a Markov model. The simulation results show that the parameters provided by the proposed configurator tend to lead the failure detector to satisfy the QoS requirements in networks subject to message loss bursts. Additionally, the work shows that is possible improve the accuracy of the failure detector by using a simple combination of simple message delay estimators / Doutorado / Mestre em Ciência da Computação
|
133 |
Processamento distribuído da junção espacial de múltiplas bases de dados: multi-way spatial joinCunha, Anderson Rogério 19 February 2014 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:33:04Z
No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Approved for entry into archive by Erika Demachki (erikademachki@gmail.com) on 2014-12-29T15:39:23Z (GMT) No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5) / Made available in DSpace on 2014-12-29T15:39:23Z (GMT). No. of bitstreams: 2
license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Dissertação - Anderson Rogério Cunha - 2014.pdf: 4853685 bytes, checksum: d50cf557f1a067a91c2034443ee62df2 (MD5)
Previous issue date: 2014-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Spatial join is one of the spatial operations of higher computational cost. Its complexity
increases significantly when it involves multiple databases (multi-way spatial join). Traditional
processing strategies of multi-way spatial join apply combinations of binary join
algorithms on centralized computing environments. For complex queries, this approach
requires much computational power, making it often unfeasible in centralized environments.
This work proposes the Distributed Synchronous Traversal algorithm (DST), whose goal
is to enable the distributed processing of multi-way spatial joins on a cluster of computers.
The DST algorithm is based on Synchronous Traversal algorithm and processes the multiway
spatial join in a single synchronous descent upon R-Trees levels of the database
entries (the final outcome is built incrementally, without creating temporary databases).
To the best of our knowledge, there are no other proposals in the literature that deal with
this problem in a distributed fashion and on a peer-to-peer architecture.
Many challenges had to be overcome, such as the definition of data structures that enabled
the mapping of the semantics of queries of multi-way spatial join and coordination of
the required distributed processing. DST proved to be satisfactorily parallelizable and
scalable process real datasets in experiments performed in clusters of 1, 2, 4 and 8 servers. / A junção espacial (Spatial Join) é uma das operações espaciais de maior custo computacional.
Sua complexidade aumenta significativamente quando envolve múltiplas bases de
dados (multi-way spatial join). Estratégias tradicionais de processamento do multi-way
spatial join aplicam combinações de algoritmos de junção binária sobre ambientes computacionais
centralizados. Em consultas complexas, esse tipo de abordagem exige grande
capacidade computacional muitas vezes inviável em ambientes centralizados.
Neste trabalho é proposto o algoritmo Distributed Synchronous Traversal (DST), cujo
objetivo é tornar viável a execução distribuída do multi-way spatial join em um cluster de
computadores. O DST se baseia no algoritmo Synchronous Traversal e processa o multiway
spatial join em uma única descida síncrona sobre os níveis das R-Trees das bases de
dados de entrada. O resultado final é construído incrementalmente, sem a consolidação
de dados intermediários. Até onde conhecemos, não há outras propostas na literatura para
multi-way spatial join distribuído sobre uma arquitetura peer-to-peer.
Muitos desafios tiveram que ser superados, como a definição de estruturas de dados
que possibilitassem o mapeamento da semântica das consultas de multi-way spatial
join e a coordenação do processamento distribuído das mesmas. O DST se mostrou
satisfatoriamente paralelizável e escalável ao processar bases de dados reais em clusters
de até 8 servidores.
|
134 |
Otimização de filtros modais espaciais usando redes de sensores aplicados ao controle de vibrações de estruturas do tipo viga e placa / Optimization of spatial modal filters composed of sensor networks applied to the structural vibration control of a cantilever beam ans a clamped plateAugusto Hirao Shigueoka 08 July 2015 (has links)
Ao empregar a teoria de controle para a dinâmica de uma estrutura, é possível projetar um observador potencialmente complexo que a partir da leitura de apenas um sensor estime o estado do sistema e determine os modos de vibração presentes. Este trabalho, no entanto, estuda o uso de filtros modais em controle de vibrações, com a motivação de que essa estratégia dependa de menos componentes eletrônicos. O objetivo é encontrar um filtro modal que possua alto desempenho em malha fechada mesmo com um número reduzido de sensores. Primeiramente foi desenvolvido o modelo dinâmico do sistema em malha aberta, com posterior otimização do filtro modal por meio do método do ponto interior. Depois, foi desenvolvido o modelo dinâmico do sistema em malha fechada. A seguir, um algoritmo genético otimizou o sistema de controle de vibrações seguindo duas metodologias. A primeira considera apenas as posições dos sensores como variáveis de otimização, enquanto a segunda leva em consideração não só as posições dos sensores como também os ganhos do filtro modal e o ganho de retroalimentação de velocidade. Os resultados do estudo do sistema em malha aberta mostram que se trata se um problema de otimização não-convexa, mas todas as tentativas levaram a crer que o mínimo global tenha sido encontrado para a função objetivo proposta, baseada no desvio quadrático da função de resposta em frequência do filtro modal com relação a uma referência pré-estabelecida. Os resultados do estudo do sistema em malha fechada mostram que considerar as posições e os ganhos como variáveis de otimização levam a um filtro modal mais conveniente do que o que é obtido levando-se em consideração apenas as posições. Finalmente, a partir da interpretação dos resultados, conclui-se que mesmo com um filtro modal composto por 5 sensores é possível ainda desenvolver um sistema de controle de vibrações que seja de fase mínima. Apesar de existir spillover de observação do ponto de vista de um filtro modal, nota-se que todos os modos estão em fase, o que acaba por ser até benéfico para o sistema de controle de vibrações. / The control systems theory may be applied to structural dynamics in order to design a potentially complex observer which is able to estimate the system\'s state from the readings of a sole sensor. This work, though, focused on the application of modal filters in vibration control based on the premise that this strategy will require a simpler hardware. The main target consists of finding a modal filter which can deliver high performance in vibration control despite being composed of a reduced number of sensors. In the first step, a dynamic model of a modal filter on a cantilever beam was developed, followed by an optimization carried on with the interior-point method. Then, the dynamic model of the closed-loop cantilever beam was developed aftwerwards. However, this time a genetic algorithm was used as the optimization method instead, with two methodologies being employed. While the first one considered only the placement of the sensors, the second one also takes into consideration the modal filter gains and the negative velocity feedback gain. The results yielded by the open-loop cantilever beam analysis showed that it is a non-convex optimization problem. However, all of the attempts support the belief that the global minimum has been found in the sense of the proposed objective function, which was based on the quadratic error between the frequency response function (FRF) of the modal filter and an idealized FRF used as reference. The results yielded by the closed-loop system optimization showed that it is more convenient to consider as optimization variables not only the placement of the sensors, but also their gains and the negative velocity feedback gain. Finally, after pondering over the obtained results, it has been concluded that the observation spillover resulting from a modal filter composed of a reduced number of sensors may be turned to the vibration control system\'s favour by means of optimization. The minimal-phase modal filter composed of 5 sensors found in this work stands out as the most notable example in this work, being able to guarantee stability for the first 12 modes since all of them are in-phase.
|
135 |
Modelagem computacional distribuida e paralela de sistemas e de series temporais multivariaveis no espaço de estadoBarreto, Gilmar, 1958- 01 August 2018 (has links)
Orientador : Celso Pascoli Bottura / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-01T16:06:11Z (GMT). No. of bitstreams: 1
Barreto_Gilmar_D.pdf: 3708607 bytes, checksum: 3b4291314b6c8041286e4a776d5c99f6 (MD5)
Previous issue date: 2002 / Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais multivariáveis no espaço de estado, através de métodos de subespaço. Tem como segundo objetivo o desenvolvimento e implementação de algoritmos para modelagem computacional distribuída e paralela destes tipos de dados multivariados. A modelagem computacional de dados no espaço de estado é apresentada, comentada e avaliada sobre "benchmarks ". Desta forma esperamos viabilizar uma metodologia original e eficiente que contribuirá de forma direta para a modelagem de sistemas multivariáveis e de formas direta e ou indireta para o controle de sistemas multivariáveis. / Abstract: This study investigates firstly theoretical foundations in analysis, development and implementation of algorithms for state space modelling of time
series and dynamic systems data. The second objective is the development and implementation of parallel and distributed computational modelling algorithms
for such types of multivariate data. State space computational data modelling is presented, commented upon and evaluated against benchmarks. This procedure leads to the expectation of assured feasibility of an original and efficient methodology that will contribute in a direct way to multivariable systems modelling and, both in direct and indirect ways, to the control of multivariable systems. / Doutorado
|
136 |
Estudo sobre processamento maciçamente paralelo na internetHuerta Yero, Eduardo Javier 29 July 2003 (has links)
Orientador: Marco Aurélio Amaral Henriques / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-04T14:25:45Z (GMT). No. of bitstreams: 1
HuertaYero_EduardoJavier_D.pdf: 2542631 bytes, checksum: c80e6ec9e2f0c2c08ea46f6ccd078d4b (MD5)
Previous issue date: 2003 / Resumo: Este trabalho estuda a possibilidade de aproveitar o poder de processamento agregado dos computadores conectados pela Internet para resolver problemas de grande porte. O trabalho apresenta um estudo do problema tanto do ponto de vista teórico quanto prático. Desde o ponto de vista teórico estudam-se as características das aplicações paralelas que podem tirar proveito de um ambiente computacional com um grande número de computadores heterogêneos fracamente acoplados. Desde o ponto de vista prático estudam-se os problemas fundamentais a serem resolvidos para se construir um computador paralelo virtual com estas características e propõem-se soluções para alguns dos mais importantes como balanceamento de carga e tolerância a falhas. Os resultados obtidos indicam que é possível construir um computador paralelo virtual robusto, escalável e tolerante a falhas e obter bons resultados na execução de aplicações com alta razão computação/comunicação / Abstract: This thesis explores the possibility of using the aggregated processing power of computers connected by the Internet to solve large problems. The issue is studied both from the theoretical and practical point of views. From the theoretical perspective this work studies the characteristics that parallel applications should have to be able to exploit an environment with a large, weakly connected set of computers. From the practical perspective the thesis indicates the fundamental problems to be solved in order to construct a large parallel virtual computer, and proposes solutions to some of the most important of them, such as load balancing and fault tolerance. The results obtained so far indicate that it is possible to construct a robust, scalable and fault tolerant parallel virtual computer and use it to execute applications with high computing/communication ratio / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
|
137 |
Avaliação de um sistema de gerencia de banco de dados em memoria principal para uso em aplicações WEB / Evaluation of a main-memory database for use on web applicationsSupriano, Anderson 31 July 2006 (has links)
Orientador: Luiz Eduardo Buzato / Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-07T21:51:35Z (GMT). No. of bitstreams: 1
Supriano_Anderson_M.pdf: 835080 bytes, checksum: b62645ab9d314ade2a5badaad1879518 (MD5)
Previous issue date: 2006 / Resumo: Aplicações web são cada vez mais comuns em nosso cotidiano e com isto torna-se necessária a busca por soluções para a melhora do desempenho no acesso a essas aplicações. Várias técnicas existem para esta melhora de desempenho, entre elas a replicação de aplicações e bancos de dados e o uso de bancos de dados em memória principal. Em busca da melhora de desempenho pensa-se em juntar um banco de dados de memória principal com as técnicas de replicação. Para isto, é necessário escolher um banco de dados de memória principal que seja estável e já tenha bom desempenho, para que a camada de replicação possa ser implementada utilizando-o como base. Este trabalho tem o objetivo de analisar o desempenho de um banco de dados de memória principal e compará-lo com o desempenho de dois bancos de dados tradicionais. Os bancos de dados escolhidos foram: Monet, de memória principal, e MySQL e PostgreSQL, tradicionais. Para que uma medida de desempenho seja feita de modo que seja válida para o uso em aplicações web, o benchmark escolhido foi o TPC-W, que especifica a implementação de uma loja de livros e browsers emulados para acessar essa loja, de modo que é possível fazer uma análise de desempenho. Este trabalho irá mostrar um estudo sobre as teorias envolvidas e os resultados dos testes aplicados, em que o Monet não mostra ter um desempenho superior em todos os casos e nem está maduro o suficiente para ser usado na prática em replicação de aplicações web. Portanto, outras soluções baseadas em sistemas de gerência de persistência alternativos devem ser consideradas / Abstract: Web applications are very common applications nowadays and it is necessary to find solutions for performance improvements for these applications. There are several ways to implement these performance improvements, including applications and databases replication and usage of main-memory databases. Looking for performance improvements we can think about using main-memory databases together with replication algorithms. In order to implement this, it is necessary to choose a main-memory database that are stable and with good performance to be used to implement a replication layer on it. The objective of this work is analyzing a main-memory database performance and compares it with the performance of two traditional databases. The database systems chosen were: Monet, as a main-memory database, and MySQL and PostgreSQL, as traditional databases. In order to have a benchmark that is valid for web applications usage we chose the TPC-W benchmark, which specifies a book store implementation and emulated browsers to access this shop, which allows an analysis on database performance. This work will show a study about theories involved and the results of executed tests, where Monet¿s performance does not seem to be better performance in most cases and Monet seems not be stable enough to be used on a real system for replication of web applications. Therefore, other solutions based on alternative persistence management systems should be considered. / Mestrado / Engenharia de Computação / Mestre em Ciência da Computação
|
138 |
Depuração simbólica extensível para sistemas de objetos distribuídos / Extensible symbolic debugging for distributed object systemsMega, Giuliano 07 March 2008 (has links)
Depurar sistemas distribuídos continua uma tarefa difícil, mesmo após 30 anos de pesquisa intensa. Embora essa situação possa ser parcialmente atribuída à complexidade das execuções concorrentes, o rápido passo de desenvolvimento das plataformas e tecnologias para computação distribuída também carrega a sua parcela de culpa, por encurtar a vida de muitas ferramentas potencialmente úteis. Neste trabalho, apresentamos uma análise dos principais problemas, técnicas e ferramentas ligados à depuração de sistemas concorrentes e discutidos na literatura. Baseados nessa análise, desenvolvemos e apresentamos uma nova técnica, simples e portátil, que pode ser aplicada a sistemas distribuídos que utilizam chamadas síncronas e bloqueantes. Essa técnica, concebida para sobreviver à heterogeneidade, é validada por meio da implementação de um arcabouço escrito para plataforma Eclipse e instanciado para sistemas de objetos distribuídos baseados em Java/CORBA. / After over thirty years of intense research, debugging distributed systems is still regarded as a difficult task. While this situation could be partially blamed on the fact that concurrent executions are complex, the fast pace of evolution witnessed with distributed computing technologies have also played its by shortening the lifespan of many potentially useful debugging tools. This work presents an analysis of the main issues, techniques and tools in the field of parallel, distributed, and concurrent debugging in general. Based on this analysis, we develop and present a simple and portable technique targeted at synchronous-call-based distributed systems. This technique, designed for portability, is validated through the implementation of an Eclipse-based framework that is instantiated for Java/CORBA distributed object systems.
|
139 |
\"Armazenamento distribuído de dados e checkpointing de aplicações paralelas em grades oportunistas\" / Distributed data storage and checkpointing of parallel applications in opportunistic gridsCamargo, Raphael Yokoingawa de 04 May 2007 (has links)
Grades computacionais oportunistas utilizam recursos ociosos de máquinas compartilhadas para executar aplicações que necessitam de um alto poder computacional e/ou trabalham com grandes quantidades de dados. Mas a execução de aplicações paralelas computacionalmente intensivas em ambientes dinâmicos e heterogêneos, como grades computacionais oportunistas, é uma tarefa difícil. Máquinas podem falhar, ficar inacessíveis ou passar de ociosas para ocupadas inesperadamente, comprometendo a execução de aplicações. Um mecanismo de tolerância a falhas que dê suporte a arquiteturas heterogêneas é um importante requisito para estes sistemas. Neste trabalho, analisamos, implementamos e avaliamos um mecanismo de tolerância a falhas baseado em checkpointing para aplicações paralelas em grades computacionais oportunistas. Este mecanismo permite o monitoramento de execuções e a migração de aplicações entre nós heterogêneos da grade. Mas além da execução, é preciso gerenciar e armazenar os dados gerados e utilizados por estas aplicações. Desejamos uma infra-estrutura de armazenamento de dados de baixo custo e que utilize o espaço livre em disco de máquinas compartilhadas da grade. Devemos utilizar somente os ciclos ociosos destas máquinas para armazenar e recuperar dados, de modo que um sistema de armazenamento distribuído que as utilize deve ser redundante e tolerante a falhas. Para resolver o problema do armazenamento de dados em grades oportunistas, projetamos, implementamos e avaliamos o middleware OppStore. Este middleware provê armazenamento distribuído e confiável de dados, que podem ser acessados de qualquer máquina da grade. As máquinas são organizadas em aglomerados, que são conectados por uma rede peer-to-peer auto-organizável e tolerante a falhas. Dados são codificados em fragmentos redundantes antes de serem armazenados, de modo que arquivos podem ser reconstruídos utilizando apenas um subconjunto destes fragmentos. Finalmente, para lidar com a heterogeneidade dos recursos, desenvolvemos uma extensão ao protocolo de roteamento em redes peer-to-peer Pastry. Esta extensão adiciona balanceamento de carga e suporte à heterogeneidade de máquinas ao protocolo Pastry. / Opportunistic computational grids use idle resources from shared machines to execute applications that need large amounts of computational power and/or deal with large amounts of data. But executing computationally intensive parallel applications in dynamic and heterogeneous environments, such as opportunistic grids, is a daunting task. Machines may fail, become inaccessible, or change from idle to occupied unexpectedly, compromising the application execution. A fault tolerance mechanism that supports heterogeneous architectures is an important requisite for such systems. In this work, we analyze, implement and evaluate a checkpointing-based fault tolerance mechanism for parallel applications running on opportunistic grids. The mechanism monitors application execution and allows the migration of applications between heterogeneous nodes of the grid. But besides application execution, it is necessary to manage data generated and used by those applications. We want a low cost data storage infrastructure that utilizes the unused disk space of grid shared machines. The system should use the machines to store and recover data only during their idle periods, requiring the system to be redundant and fault-tolerant. To solve the data storage problem in opportunistic grids, we designed, implemented and evaluated the OppStore middleware. This middleware provides reliable distributed storage for application data, which can be accessed from any machine in the grid. The machines are organized in clusters, connected by a self-organizing and fault-tolerant peer-to-peer network. During storage, data is codified into redundant fragments, allowing the reconstruction of the original file using only a subset of those fragments. Finally, to deal with resource heterogeneity, we developed an extension to the Pastry peer-to-peer routing substrate, enabling heterogeneity-aware load-balancing message routing.
|
140 |
Modelagem concentrada e semi-distribuída para simulação de vazão, produção de sedimentos e de contaminantes em bacias hidrográficas do interior de São Paulo / Parsimonious and physically-based models to evaluate streamflow, soil loss and pollution in watersheds in the interior of São PauloSantos, Franciane Mendonça dos 11 September 2018 (has links)
A escassez de dados hidrológicos no Brasil é um problema recorrente em muitas regiões, principalmente em se tratando de dados hidrométricos, produção de sedimentos e qualidade da água. A pesquisa por modelos de bacias hidrográficas tem aumentado nas últimas décadas, porém, a estimativa de dados hidrossedimentológicos a partir de modelos mais sofisticados demanda de grande número de variáveis, que devem ser ajustadas para cada sistema natural, o que dificulta a sua aplicação. O objetivo principal desta tese foi avaliar diferentes ferramentas de modelagem utilizadas para a estimativa da vazão, produção de sedimentos e qualidade da água e, em particular, comparar os resultados obtidos de um modelo hidrológico físico semi-distribuído, o Soil Water Assessment Tool (SWAT) com os resultados obtidos a partir de modelos hidrológicos concentrados, com base na metodologia do número da curva de escoamento do Soil Conservation Service (SCS-CN) e no modelo Generalized Watershed Loading Function (GWLF). Buscou-se avaliar e apresentar em quais condições o uso de cada modelo deve ser recomendado, ou seja, quando o esforço necessário para executar o modelo semi-distribuído leva a melhores resultados efetivos. Em relação à simulação da vazão, os resultados dos dois modelos foram altamente influenciados pelos dados de precipitação, indicando que existem, possivelmente, falhas ou erros de medição que poderiam ter influenciado negativamente os resultados. Portanto, foi proposto aplicar o modelo semi-distribuído com dados de precipitação interpolados (DPI) de alta resolução para verificar a eficiência de seus resultados em comparação com os resultados obtidos com a utilização dos dados de precipitação observados (DPO). Para simulação da produção de sedimentos, e das concentrações de nitrogênio e fósforo, o SWAT realiza uma simulação hidrológica mais detalhada, portanto, fornece resultados ligeiramente melhores para parâmetros de qualidade da água. O uso do modelo semi-distribuído também foi ampliado para simular uma bacia hidrográfica sob a influência do reservatório, a fim de verificar a potencialidade do modelo para esse propósito. Os modelos também foram aplicados para identificar quais os impactos potenciais das mudanças no uso do solo previstas e em andamento. Os cenários estudados foram: I – cenário atual, II – cenário tendencial, com o aumento da mancha urbana e substituição do solo exposto e de parte da mata nativa por uso agrícola; III – cenário desejável, complementa o crescimento urbano tendencial com aumento de áreas de reflorestamento. As metodologias foram aplicadas em duas bacias hidrográficas localizadas no Sudeste do Brasil. A primeira é a bacia do rio Jacaré-Guaçu, incluída na Unidade de Gerenciamento de Recursos Hídricos 13 (UGRHI-13), a montante da confluência do rio das Cruzes, com uma área de 1934 km2. O segundo caso de estudo, é a bacia do rio Atibaia, inserida na UGRHI-5, tem uma área de 2817,88 km2 e abrange municípios dos estados de São Paulo e Minas Gerais. Como principal conclusão, o desempenho do modelo semi-distribuído para estimar a produção de sedimentos, e as concentrações de nitrogênio e fósforo foi ligeiramente melhor do que as simulações do modelo concentrado SCS-CN e GWLF, mas essa vantagem pode não compensar o esforço adicional de calibrá-lo e validá-lo. / The lack of hydrological data in Brazil is a recurrent problem in many regions, especially in hydrometric data, sediment yield and water quality. The research by simplified models has increased in the last decades, however, the estimation of hydrossedimentological data from these more sophisticated models demands many variables, which must be adjusted for each natural system, which makes it difficult to apply. At times it is necessary to respond quickly without much precision in the results, in these situations, simpler models with few parameters can be the solution. The objective of this research is to evaluate different modelling tools used estimate streamflow, sediments yield and nutrients loads values, and namely to compare the results obtained from a physically-based distributed hydrological model (SWAT) with the results from a lumped hydrological, the Soil Conservation Service (SCS-CN) and the Generalized Watershed Loading Function (GWLF) model. Both models use the curve number (CN) concept, determined from land use, soil hydrologic group and antecedent soil moisture conditions and were run with a daily time step. We are particularly interested in understanding under which conditions the use of each model is to be recommended, namely when does the addition effort required to run the distributed model leads to effective better results. The input variables and parameters of the lumped model are assumed constant throughout the watershed, while the SWAT model performs the hydrological analysis at a small unit level, designated as hydrological response units (HRUs), and integrates the results at a sub-basin level. In relation to the flow simulation, the results of the two models were highly influenced by the rainfall data, indicating that, possibly, faults or measurement errors could have negatively influenced the results. Therefore, it was proposed to apply the distributed model with high-resolution grids of daily precipitation to verify the efficiency of its results when compared to rainfall data. For simulation of sediment, nitrogen and phosphorus, SWAT performs a more detailed simulation and thus provides slightly better results. The use of the SWAT was also extended to simulate the influence of reservoir, in order to verify the potentiality of the model, in relation to the simulation. The models also were used to identify which are potential impacts of the ongoing land use changes. The scenarios were: I - Current scenario, II - trend scenario, with the increase of urban land and replacement of the exposed soil and part of the native forest by agricultural use; III - desirable scenario complements the trend urban growth with the replacement of exposed soil and part of the agricultural use by reforestation. The methodologies were applied on two watersheds located in the Southeast of Brazil. The first one is the Jacaré-Guaçu river basin, included in the Water Resources Management Unit 13 (UGRHI-13), upstream of Cruzes river confluence, with an area of 1934 km2. The second watershed is the Atibaia River Basin, a part of Water Resources Management Unit 5 (UGRHI-5). It has an area of 2817.88 km2 and covers municipalities of the states of São Paulo and Minas Gerais.
|
Page generated in 0.0746 seconds