Spelling suggestions: "subject:"distribuídos"" "subject:"distribuída""
171 |
Modelagem concentrada e semi-distribuída para simulação de vazão, produção de sedimentos e de contaminantes em bacias hidrográficas do interior de São Paulo / Parsimonious and physically-based models to evaluate streamflow, soil loss and pollution in watersheds in the interior of São PauloFranciane Mendonça dos Santos 11 September 2018 (has links)
A escassez de dados hidrológicos no Brasil é um problema recorrente em muitas regiões, principalmente em se tratando de dados hidrométricos, produção de sedimentos e qualidade da água. A pesquisa por modelos de bacias hidrográficas tem aumentado nas últimas décadas, porém, a estimativa de dados hidrossedimentológicos a partir de modelos mais sofisticados demanda de grande número de variáveis, que devem ser ajustadas para cada sistema natural, o que dificulta a sua aplicação. O objetivo principal desta tese foi avaliar diferentes ferramentas de modelagem utilizadas para a estimativa da vazão, produção de sedimentos e qualidade da água e, em particular, comparar os resultados obtidos de um modelo hidrológico físico semi-distribuído, o Soil Water Assessment Tool (SWAT) com os resultados obtidos a partir de modelos hidrológicos concentrados, com base na metodologia do número da curva de escoamento do Soil Conservation Service (SCS-CN) e no modelo Generalized Watershed Loading Function (GWLF). Buscou-se avaliar e apresentar em quais condições o uso de cada modelo deve ser recomendado, ou seja, quando o esforço necessário para executar o modelo semi-distribuído leva a melhores resultados efetivos. Em relação à simulação da vazão, os resultados dos dois modelos foram altamente influenciados pelos dados de precipitação, indicando que existem, possivelmente, falhas ou erros de medição que poderiam ter influenciado negativamente os resultados. Portanto, foi proposto aplicar o modelo semi-distribuído com dados de precipitação interpolados (DPI) de alta resolução para verificar a eficiência de seus resultados em comparação com os resultados obtidos com a utilização dos dados de precipitação observados (DPO). Para simulação da produção de sedimentos, e das concentrações de nitrogênio e fósforo, o SWAT realiza uma simulação hidrológica mais detalhada, portanto, fornece resultados ligeiramente melhores para parâmetros de qualidade da água. O uso do modelo semi-distribuído também foi ampliado para simular uma bacia hidrográfica sob a influência do reservatório, a fim de verificar a potencialidade do modelo para esse propósito. Os modelos também foram aplicados para identificar quais os impactos potenciais das mudanças no uso do solo previstas e em andamento. Os cenários estudados foram: I – cenário atual, II – cenário tendencial, com o aumento da mancha urbana e substituição do solo exposto e de parte da mata nativa por uso agrícola; III – cenário desejável, complementa o crescimento urbano tendencial com aumento de áreas de reflorestamento. As metodologias foram aplicadas em duas bacias hidrográficas localizadas no Sudeste do Brasil. A primeira é a bacia do rio Jacaré-Guaçu, incluída na Unidade de Gerenciamento de Recursos Hídricos 13 (UGRHI-13), a montante da confluência do rio das Cruzes, com uma área de 1934 km2. O segundo caso de estudo, é a bacia do rio Atibaia, inserida na UGRHI-5, tem uma área de 2817,88 km2 e abrange municípios dos estados de São Paulo e Minas Gerais. Como principal conclusão, o desempenho do modelo semi-distribuído para estimar a produção de sedimentos, e as concentrações de nitrogênio e fósforo foi ligeiramente melhor do que as simulações do modelo concentrado SCS-CN e GWLF, mas essa vantagem pode não compensar o esforço adicional de calibrá-lo e validá-lo. / The lack of hydrological data in Brazil is a recurrent problem in many regions, especially in hydrometric data, sediment yield and water quality. The research by simplified models has increased in the last decades, however, the estimation of hydrossedimentological data from these more sophisticated models demands many variables, which must be adjusted for each natural system, which makes it difficult to apply. At times it is necessary to respond quickly without much precision in the results, in these situations, simpler models with few parameters can be the solution. The objective of this research is to evaluate different modelling tools used estimate streamflow, sediments yield and nutrients loads values, and namely to compare the results obtained from a physically-based distributed hydrological model (SWAT) with the results from a lumped hydrological, the Soil Conservation Service (SCS-CN) and the Generalized Watershed Loading Function (GWLF) model. Both models use the curve number (CN) concept, determined from land use, soil hydrologic group and antecedent soil moisture conditions and were run with a daily time step. We are particularly interested in understanding under which conditions the use of each model is to be recommended, namely when does the addition effort required to run the distributed model leads to effective better results. The input variables and parameters of the lumped model are assumed constant throughout the watershed, while the SWAT model performs the hydrological analysis at a small unit level, designated as hydrological response units (HRUs), and integrates the results at a sub-basin level. In relation to the flow simulation, the results of the two models were highly influenced by the rainfall data, indicating that, possibly, faults or measurement errors could have negatively influenced the results. Therefore, it was proposed to apply the distributed model with high-resolution grids of daily precipitation to verify the efficiency of its results when compared to rainfall data. For simulation of sediment, nitrogen and phosphorus, SWAT performs a more detailed simulation and thus provides slightly better results. The use of the SWAT was also extended to simulate the influence of reservoir, in order to verify the potentiality of the model, in relation to the simulation. The models also were used to identify which are potential impacts of the ongoing land use changes. The scenarios were: I - Current scenario, II - trend scenario, with the increase of urban land and replacement of the exposed soil and part of the native forest by agricultural use; III - desirable scenario complements the trend urban growth with the replacement of exposed soil and part of the agricultural use by reforestation. The methodologies were applied on two watersheds located in the Southeast of Brazil. The first one is the Jacaré-Guaçu river basin, included in the Water Resources Management Unit 13 (UGRHI-13), upstream of Cruzes river confluence, with an area of 1934 km2. The second watershed is the Atibaia River Basin, a part of Water Resources Management Unit 5 (UGRHI-5). It has an area of 2817.88 km2 and covers municipalities of the states of São Paulo and Minas Gerais.
|
172 |
Uma abordagem de predição da dinâmica comportamental de processos para prover autonomia a ambientes distribuídos / An approach to provide autonomy to distributed environments by predicting the dynamics of process behaviorEvgueni Dodonov 01 July 2009 (has links)
A evolução de sistemas distribuídos resultou em aumento significativo de complexidade para manutenção e gerenciamento, tornando pouco eficientes técnicas convencionais baseadas em intervenções manuais. Isso motivou pesquisas que deram origem ao paradigma de computação autônoma (Autonomic Computing), que provê aspectos de auto-configuração, auto-recuperação, auto-otimização e auto-proteção a fim de tornar sistemas auto-gerenciáveis. Nesse contexto, esta tese teve como objetivo prover autonomia a ambientes distribuídos, sem a necessidade de mudar o paradigma de programação e as aplicações de usuários. Para isso, propôs-se uma abordagem que emprega técnicas para compreensão e predição de dinâmicas comportamentais de processos, utilizando abordagens de sistemas dinâmicos, inteligência artificial e teoria do caos. Os estudos realizados no decorrer desta pesquisa demonstraram que, ao predizer padrões comportamentais, pode-se otimizar diversos aspectos de computação distribuída, suportando tomadas de decisão autônomas pelos ambientes. Para validar a abordagem proposta, foi desenvolvida uma política de escalonamento distribuído, denominada PredRoute, a qual utiliza o conhecimento sobre o comportamento de processos para otimizar, transparentemente, a alocação de recursos. Experimentos realizados demonstraram que essa política aumenta o desempenho em até 4 ordens de grandeza e apresenta baixo custo computacional, o que permite a sua adoção para escalonamento online de processos / The evolution of distributed systems resulted in a significant growth in management and support complexities, which uncovered the inefficiencies incurred by the usage of conventional management techniques, based in manual interventions. This, therefore, has motivated researches towards the concept of Autonomic Computing, which provides aspects of self-configuration, self-healing, self-optimization and self-protection, aiming at developing computer systems capable of self-management. In this context, this thesis was conceived with the goal of providing autonomy to distributed systems, without changing the programming paradigm or user applications. In order to reach this goal, we proposed an approach which employs techniques capable of modelling and predicting the dynamics of application behavior, using concepts introduced in dynamical systems, artificial intelligence, and chaos theory. The obtained results demonstrated that it is possible to optimize several aspects of distributed computing, providing support for autonomic computing capabilities to distributed environments. In order to validate the proposed approach, a distributed scheduling policy was developed, named PredRoute, which uses the knowledge about the process behavior to transparently optimize the resource allocation. Experimental results demonstrated that this policy can improve the system performance by up to a power of 4, and also requires a considerably low computational cost, which suggests its adoption for online process scheduling in distributed environments
|
173 |
Módulo de consultas distribuídas do Infinispan / Module that supports distributed queries in InfinispanIsrael Danilo Lacerra 26 November 2012 (has links)
Com a grande quantidade de informações existentes nas aplicações computacionais hoje em dia, cada vez mais tornam-se necessários mecanismos que facilitem e aumentem o desempenho da recuperação dessas informações. Nesse contexto vem surgindo os bancos de dados chamados de NOSQL, que são bancos de dados tipicamente não relacionais que, em prol da disponibilidade e do desempenho em ambientes com enormes quantidades de dados, abrem mão de requisitos antes vistos como fundamentais. Neste trabalho iremos lidar com esse cenário ao implementar o módulo de consultas distribuídas do JBoss Infinispan, um sistema de cache distribuído que funciona também como um banco de dados NOSQL em memória. Além de apresentar a implementação desse módulo, iremos falar do surgimento do movimento NOSQL, de como se caracterizam esses bancos e de onde o Infinispan se insere nesse movimento. / With the big amount of data available to computer applications nowadays, there is an increasing need for mechanisms that facilitate the retrieval of such data and improve data access performance. In this context we see the emergence of so-called NOSQL databases, which are databases that are typically non-relational and that give up fulfilling some requirements previously seen as fundamental in order to achieve better availability and performance in big data environments. In this work we deal with the scenario above and implement a module that supports distributed queries in JBoss Infinispan, a distributed cache system that works also as an in-memory NOSQL database. Besides presenting the implementation of that module, we discuss the emergence of the NOSQL movement, the characterization of NOSQL databases, and where Infinispan fits in this context.
|
174 |
\"Armazenamento distribuído de dados e checkpointing de aplicações paralelas em grades oportunistas\" / Distributed data storage and checkpointing of parallel applications in opportunistic gridsRaphael Yokoingawa de Camargo 04 May 2007 (has links)
Grades computacionais oportunistas utilizam recursos ociosos de máquinas compartilhadas para executar aplicações que necessitam de um alto poder computacional e/ou trabalham com grandes quantidades de dados. Mas a execução de aplicações paralelas computacionalmente intensivas em ambientes dinâmicos e heterogêneos, como grades computacionais oportunistas, é uma tarefa difícil. Máquinas podem falhar, ficar inacessíveis ou passar de ociosas para ocupadas inesperadamente, comprometendo a execução de aplicações. Um mecanismo de tolerância a falhas que dê suporte a arquiteturas heterogêneas é um importante requisito para estes sistemas. Neste trabalho, analisamos, implementamos e avaliamos um mecanismo de tolerância a falhas baseado em checkpointing para aplicações paralelas em grades computacionais oportunistas. Este mecanismo permite o monitoramento de execuções e a migração de aplicações entre nós heterogêneos da grade. Mas além da execução, é preciso gerenciar e armazenar os dados gerados e utilizados por estas aplicações. Desejamos uma infra-estrutura de armazenamento de dados de baixo custo e que utilize o espaço livre em disco de máquinas compartilhadas da grade. Devemos utilizar somente os ciclos ociosos destas máquinas para armazenar e recuperar dados, de modo que um sistema de armazenamento distribuído que as utilize deve ser redundante e tolerante a falhas. Para resolver o problema do armazenamento de dados em grades oportunistas, projetamos, implementamos e avaliamos o middleware OppStore. Este middleware provê armazenamento distribuído e confiável de dados, que podem ser acessados de qualquer máquina da grade. As máquinas são organizadas em aglomerados, que são conectados por uma rede peer-to-peer auto-organizável e tolerante a falhas. Dados são codificados em fragmentos redundantes antes de serem armazenados, de modo que arquivos podem ser reconstruídos utilizando apenas um subconjunto destes fragmentos. Finalmente, para lidar com a heterogeneidade dos recursos, desenvolvemos uma extensão ao protocolo de roteamento em redes peer-to-peer Pastry. Esta extensão adiciona balanceamento de carga e suporte à heterogeneidade de máquinas ao protocolo Pastry. / Opportunistic computational grids use idle resources from shared machines to execute applications that need large amounts of computational power and/or deal with large amounts of data. But executing computationally intensive parallel applications in dynamic and heterogeneous environments, such as opportunistic grids, is a daunting task. Machines may fail, become inaccessible, or change from idle to occupied unexpectedly, compromising the application execution. A fault tolerance mechanism that supports heterogeneous architectures is an important requisite for such systems. In this work, we analyze, implement and evaluate a checkpointing-based fault tolerance mechanism for parallel applications running on opportunistic grids. The mechanism monitors application execution and allows the migration of applications between heterogeneous nodes of the grid. But besides application execution, it is necessary to manage data generated and used by those applications. We want a low cost data storage infrastructure that utilizes the unused disk space of grid shared machines. The system should use the machines to store and recover data only during their idle periods, requiring the system to be redundant and fault-tolerant. To solve the data storage problem in opportunistic grids, we designed, implemented and evaluated the OppStore middleware. This middleware provides reliable distributed storage for application data, which can be accessed from any machine in the grid. The machines are organized in clusters, connected by a self-organizing and fault-tolerant peer-to-peer network. During storage, data is codified into redundant fragments, allowing the reconstruction of the original file using only a subset of those fragments. Finally, to deal with resource heterogeneity, we developed an extension to the Pastry peer-to-peer routing substrate, enabling heterogeneity-aware load-balancing message routing.
|
175 |
Energy savings and performance improvements with SSDs in the Hadoop Distributed File System / Economia de energia e aumento de desempenho usando SSDs no Hadoop Distributed File SystemPolato, Ivanilton 29 August 2016 (has links)
Energy issues gathered strong attention over the past decade, reaching IT data processing infrastructures. Now, they need to cope with such responsibility, adjusting existing platforms to reach acceptable performance while promoting energy consumption reduction. As the de facto platform for Big Data, Apache Hadoop has evolved significantly over the last years, with more than 60 releases bringing new features. By implementing the MapReduce programming paradigm and leveraging HDFS, its distributed file system, Hadoop has become a reliable and fault tolerant middleware for parallel and distributed computing over large datasets. Nevertheless, Hadoop may struggle under certain workloads, resulting in poor performance and high energy consumption. Users increasingly demand that high performance computing solutions address sustainability and limit energy consumption. In this thesis, we introduce HDFSH, a hybrid storage mechanism for HDFS, which uses a combination of Hard Disks and Solid-State Disks to achieve higher performance while saving power in Hadoop computations. HDFSH brings, to the middleware, the best from HDs (affordable cost per GB and high storage capacity) and SSDs (high throughput and low energy consumption) in a configurable fashion, using dedicated storage zones for each storage device type. We implemented our mechanism as a block placement policy for HDFS, and assessed it over six recent releases of Hadoop with different architectural properties. Results indicate that our approach increases overall job performance while decreasing the energy consumption under most hybrid configurations evaluated. Our results also showed that, in many cases, storing only part of the data in SSDs results in significant energy savings and execution speedups / Ao longo da última década, questões energéticas atraíram forte atenção da sociedade, chegando às infraestruturas de TI para processamento de dados. Agora, essas infraestruturas devem se ajustar a essa responsabilidade, adequando plataformas existentes para alcançar desempenho aceitável enquanto promovem a redução no consumo de energia. Considerado um padrão para o processamento de Big Data, o Apache Hadoop tem evoluído significativamente ao longo dos últimos anos, com mais de 60 versões lançadas. Implementando o paradigma de programação MapReduce juntamente com o HDFS, seu sistema de arquivos distribuídos, o Hadoop tornou-se um middleware tolerante a falhas e confiável para a computação paralela e distribuída para grandes conjuntos de dados. No entanto, o Hadoop pode perder desempenho com determinadas cargas de trabalho, resultando em elevado consumo de energia. Cada vez mais, usuários exigem que a sustentabilidade e o consumo de energia controlado sejam parte intrínseca de soluções de computação de alto desempenho. Nesta tese, apresentamos o HDFSH, um sistema de armazenamento híbrido para o HDFS, que usa uma combinação de discos rígidos e discos de estado sólido para alcançar maior desempenho, promovendo economia de energia em aplicações usando Hadoop. O HDFSH traz ao middleware o melhor dos HDs (custo acessível por GB e grande capacidade de armazenamento) e SSDs (alto desempenho e baixo consumo de energia) de forma configurável, usando zonas de armazenamento dedicadas para cada dispositivo de armazenamento. Implementamos nosso mecanismo como uma política de alocação de blocos para o HDFS e o avaliamos em seis versões recentes do Hadoop com diferentes arquiteturas de software. Os resultados indicam que nossa abordagem aumenta o desempenho geral das aplicações, enquanto diminui o consumo de energia na maioria das configurações híbridas avaliadas. Os resultados também mostram que, em muitos casos, armazenar apenas uma parte dos dados em SSDs resulta em economia significativa de energia e aumento na velocidade de execução
|
176 |
SisA3 : Sistema Automatizado de Auditoria de Armaz´ens de Gran´eis / SISA3 : AN AUTOMATED AUDIT SYSTEM FOR GRAIN STORESAl-alam, Wagner Guimarães 15 January 2010 (has links)
Made available in DSpace on 2016-03-22T17:26:24Z (GMT). No. of bitstreams: 1
Wagner Guimaraes Al-Alam.pdf: 2995290 bytes, checksum: 9902eafe02c0b5318a99f1e796dc399f (MD5)
Previous issue date: 2010-01-15 / Companies working with bulk materials have appropriate locations for storage
during the development of the production and storage of the final product, known as
warehouses or storehouses. The values of stocks need to be periodically validated by
comparing the control of receipts the and the physical situation (removal of the volume
stored in the company). In this context, the calculation of physical inventory as the volume
of bulk present in the warehouses is usually done manually with low credibility and prone
to errors. The current audit procedures on the contents of warehouses involve inaccurate
estimates, and often require emptying the warehouse.
Considering the use of technologies which enable the electronic measurement of
distances, angles, and automatic controls on actuators enabling mechanical movements
on the supporting structures, we sought to develop a system capable of providing both
computing solutions, and technology for the problem of calculation of irregular relief
(products stocked in warehouses).
The Automated Auditing Warehouse SisA3 intends to make this process automatic,
fast and precise, without the need for emptying warehouses or having contact
the products. To achieve this goal, we developed an integrated system composed of:
(i) a scanner equipment, consoling the hybrid prototype of hardware and software called
DigSisA3, in order to the measurement of points of relief non-uniform, formed by the
products in stock, and (ii) a method for calculating the volume iCone, which combines
techniques of scientific visualization, numerical interpolation points and iterative calculation
of volume.
The parallelization of the prototype iCone was also developed in order to satisfy
the test of agility and performance of the method iCone in the audit process. The development
for multiprocessor, multi-core, and distributed architectures was done over the DGM
(Geometric Distributed Machine), which provides the formalities to ensure creation,
management and application processing parallel and / or distributed scientific computing,
with emphasis on the exploitation of data parallelism and synchronization steps.
The prototype of software iCone was functionally validated, including analysis
of error in the method. The analysis of performance in the prototype p-iCone showed
satisfactory results. The development of this work strengthens the system SisA3, enabling
automatic and reliable measurement of inventories, including broad market application / Empresas que trabalham com produtos a granel possuem locais para estocagem,
durante o desenvolvimento do processo produtivo e no armazenamento do produto final,
denominados armaz´ens ou silos. Os valores dos estoques devem ser validados periodicamente
atrav´es da comparac¸ ao dos estoques fiscal (controle das notas fiscais) e f´ısico (levantamento
do volume estocado na empresa). Neste contexto, o c´alculo do estoque f´ısico,
ou seja, o volume de gran´eis presentes nos armaz´ens, ´e geralmente efetuado de forma
manual e com baixa credibilidade, desta forma com propens ao a erros. Os atuais processos
de auditoria no conte´udo de silos, al´em de envolverem estimativas inexatas, est ao
frequentemente baseados no esvaziamento do silo.
Considerando o uso de tecnologias que viabilizam a medic¸ ao eletr onica de
dist ancias, angulos, e controles autom´aticos sobre atuadores que possibilitam movimentos
mec anicos sobre estruturas de suporte, buscou-se o desenvolvimento de um sistema
capaz de prover tanto soluc¸ oes computacionais, quanto tecnol´ogicas para o problema de
c´alculo do volume de relevos irregulares, no caso dos produtos estocados nos armaz´ens.
O Sistema Automatizado de Auditoria em Armaz´ens (SisA3) pretende tornar este
processo autom´atico, r´apido e preciso, sem a necessidade de esvaziamento ou contato com
os produtos. Para alcanc¸ar este objetivo, tem-se um sistema integrado composto de: (i)
um equipamento digitalizador, consolidando o prot´otipo h´ıbrido de hardware e software
denominado Dig-SisA3 , para a medic¸ ao de pontos do relevo n ao-uniforme, formado pelos
produtos estocados; e (ii) m´etodo para o c´alculo do volume (iCone), que combina t´ecnicas
de visualizac¸ ao cient´ıfica, interpolac¸ ao num´erica de pontos e c´alculo iterativo de volume.
Al´em disto, introduz-se a paralelizac¸ ao do prot´otipo iCone, para diminuir o tempo
da obtenc¸ ao dos resultados do m´etodo iCone no processo de auditoria. A an´alise sobre
as perspectivas em arquiteturas multiprocessadas, multi-core e paralela distribu´ıda, utiliza
o ambiente D-GM (Distributed Geometric Machine), a qual prov e os formalismos para
garantir criac¸ ao, gerenciamento e processamento de aplicac¸ oes paralelas e/ou distribu´ıdas
da computac¸ ao cient´ıfica, com enfase na explorac¸ ao do paralelismo de dados e nas etapas
de sincronizac¸ oes.
O prot´otipo de software iCone apresenta-se funcionalmente validado, incluindo
an´alise de erro na execuc¸ ao do m´etodo. As an´alises de desempenho no prot´otipo p-iCone
apresentaram resultados satisfat´orios. O desenvolvimento deste trabalho consolida o sistema
SisA3, viabilizando aferic¸ ao autom´atica e confi´avel de estoques, incluindo ampla
aplicac¸ ao no mercado
|
177 |
Um ambiente integrado para apoio ao desenvolvimento distribuído de softwareGärtner, Vilson Cristiano 22 March 2011 (has links)
Submitted by CARLA MARIA GOULART DE MORAES (carlagm) on 2015-04-06T17:18:33Z
No. of bitstreams: 1
VilsonGartnerComputacao.pdf: 9068377 bytes, checksum: 6ace07d8901f11d83ef8a8c13f4f62c7 (MD5) / Made available in DSpace on 2015-04-06T17:18:33Z (GMT). No. of bitstreams: 1
VilsonGartnerComputacao.pdf: 9068377 bytes, checksum: 6ace07d8901f11d83ef8a8c13f4f62c7 (MD5)
Previous issue date: 2011 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O Desenvolvimento Distribuído de Software (DDS) é um modelo de desenvolvimento que vem se intensificando nos últimos anos. Também conhecido como Desenvolvimento Global de Software (DGS), esse modelo de desenvolvimento é realizado por equipes em diferentes localizações geográficas. Entre os fatores que contribuem para esse aumento, está a necessidade de negócio das corporações, que buscam redução de custos, recursos qualificados e necessidade de uma presença global. Em outros casos, se deve ao surgimento de novos movimentos de desenvolvimento de software, como a comunidade de software livre, um exemplo bem sucedido de DDS. Apesar da necessidade ou mesmo da conveniência de desenvolver o software de forma distribuída, é extremamente difícil fazê-lo com sucesso. A separação física traz uma série de problemas e desafios interessantes que recém estão começando a ser compreendidas: questões estratégicas, questões culturais, comunicação inadequada, gestão do conhecimento, alocação de tarefas, confiança, questões técnicas, entre outros. Desde que surgiu, o DDS mudou grande parte da tradição do desenvolvimento de software e, para manter o seu mercado, as organizações não podem depender das mesmas competências e tecnologias de engenharia de software utilizadas no desenvolvimento interno. Nesse sentido, o presente trabalho tem por objetivo auxiliar na redução dos problemas e dificuldades trazidos por esse modelo de desenvolvimento, através da implementação de um ambiente de desenvolvimento cujas ferramentas foram definidas com base em estudos e trabalhos relacionados ao tema. / The Distributed Software Development (DSD) is a development model that has been intensified in recent years. Also known as Global Software Development (GSD), this development model is done by teams in different geographical locations. Among the factors that have contributed to this increase, there is the corporations business need of seeking ways to reduce costs, seeking skilled resources and having a global presence. In other cases, it is due to the emergence of new movements in software development, such as the free software community, a successful example of DSD. Despite the need or even desirability of developing software in a distributed way, it is extremely difficult to do this successfully. Physical separation has a number of interesting problems and challenges that are just beginning to be understood: strategic issues, cultural issues, inadequate communication, knowledge management, task allocation, trust, technical issues, among others. DSD has changed much of the tradition of software development since it appeared. Organizations cannot rely on the same skills and software engineering technologies used internally to maintain this new market. In this way, this work aims to help to reduce the problems and difficulties brought by this type of development, through the implementation of a software development environment whose tools were defined based on studies related to the topic.
|
178 |
System of delay differential equations with application in dengue fever / Sistemas de equações diferenciais com retardo com aplicação na dengueSteindorf, Vanessa 20 August 2019 (has links)
Dengue fever is endemic in tropical and sub-tropical countries, and some of the important features of Dengue fever spread continue posing challenges for mathematical modelling. We propose a model, namely a system of integro-differential equations, to study a multi-serotype infectious disease. The main purpose is to include and analyse the effect of a general time delay on the model describing the length of the cross immunity protection and the effect of Antibody Dependent Enhancement (ADE), both characteristics of Dengue fever. Analysing the system, we could find the equilibriums in the invariant region. A coexistence endemic equilibrium within the region was proved, even for the asymmetric case. The local stability for the disease free equilibrium and for the boundary endemic equilibriums were proved. We have also results about the stability of the solutions of the system, that is completely determined by the Basic Reproduction Number and by the Invasion Reproduction Number, defined mathematically, as a threshold value for stability. The global dynamics is investigated by constructing suitable Lyapunov functions. Bifurcations structure and the solutions of the system were shown through numerical analysis indicating oscillatory dynamics for specific value of the parameter representing the ADE. The analytical results prove the instability of the coexistence endemic equilibrium, showing complex dynamics. Finally, mortality due to the disease is added to the original system. Analysis and discussions are made for this model as perturbation of the original non-linear system. / A Dengue é endêmica em países tropicais e subtropicais e, algumas das importantes características da dengue continua sendo um desafio para a modelagem da propagação da doença. Assim, propomos um modelo, um sistema de equações integro-diferenciais, com o objetivo de estudar uma doença infecciosa identificada por vários sorotipos. O principal objetivo é incluir e analisar o efeito de um tempo geral de retardo no modelo descrevendo o tempo de imunidade cruzada para a doença e o efeito do Antibody Dependent Enhancement (ADE). Analisando o sistema, encontramos os equilíbrios, onde a existência do equilíbrio de coexistência foi provado, mesmo para o caso assimétrico. A estabilidade local para o equilíbrio livre de doença e para os equilíbrios específicos de cada sorotipo foi provada. Também mostramos resultados para a estabilidade das soluções do sistema que é completamente determinada pelo Número Básico de Reprodução e pelo Número Básico de Invasão, definido matematicamente como um valor limiar para a estabilidade. A dinâmica global é investigada construindo funções de Lyapunov. Adicionalmente, bifurcações e as soluções do sistema foram mostrados via análise numérica indicando dinâmica oscilatória para específicos valores do parâmetro que representa o efeito ADE. Resultados analíticos obtidos pela teoria da perturbação provam a instabilidade do equilíbrio endêmico de coexistência e apontam para um complexo comportamento do sistema. Por fim, a mortalidade causada pela doença é adicionada ao sistema original. Análises e discussões são feitas para este modelo como uma perturbação do sistema não linear original.
|
179 |
GCAD - Um modelo conceitual para gerenciamento e controle autônomo e distribuído para sistemas industriais automatizados.Pacheco, Luciana de Almeida January 2011 (has links)
166f. / Submitted by Suelen Reis (suziy.ellen@gmail.com) on 2013-04-10T19:35:07Z
No. of bitstreams: 1
Luciana Pacheco seg.pdf: 3529890 bytes, checksum: 13857ac04543f1bbc9fd4d7ed9849eba (MD5) / Approved for entry into archive by Rodrigo Meirelles(rodrigomei@ufba.br) on 2013-05-11T15:30:28Z (GMT) No. of bitstreams: 1
Luciana Pacheco seg.pdf: 3529890 bytes, checksum: 13857ac04543f1bbc9fd4d7ed9849eba (MD5) / Made available in DSpace on 2013-05-11T15:30:28Z (GMT). No. of bitstreams: 1
Luciana Pacheco seg.pdf: 3529890 bytes, checksum: 13857ac04543f1bbc9fd4d7ed9849eba (MD5)
Previous issue date: 2011 / Em sistemas industriais automatizados, a inatividade provocada pela escassez não planejada de recursos, ou por falhas de processo, tem grande influência no desempenho dos sistemas por conta das descontinuidades e instabilidades geradas. Sistemas de controle distribuídos e autônomos podem ajudar a lidar com esses tipos de problemas devido à melhoria de desempenho possibilitada. Entretanto, aspectos relativos à segurança e ao tempo de resposta devem ser bem tratados nesses sistemas devido aos riscos envolvidos (humanos, financeiros e ambientais). A proposta de sistemas autônomos e distribuídos visa a que decisões de controle sejam tomadas mais próximas do objeto controlado, reduzindo assim o tempo de atuação no processo e sistematizando algumas decisões, antes tomadas de forma empírica. Consequentemente, se espera aumentar a disponibilidade e a continuidade do processo, bem como garantir os aspectos de confiabilidade. Entretanto, quando tais sistemas se tornam mais autônomos e distribuídos, podem tender ao comportamento global caótico, caso suas interações não estejam bem definidas. Assim, é importante que seja avaliado e dimensionado o acoplamento entre os sistemas autônomos relacionados. O grau de inteligência de um sistema pode variar de uma entidade completamente controlada a entidades completamente autônomas. O primeiro nível de inteligência é verificado quando um sistema é capaz de gerenciar suas próprias informações, obtidas por meio de sensores e demais técnicas e dispositivos, e não somente manipular informações. Em um segundo nível, o sistema pode notificar o seu gestor quando há um problema. Em um terceiro nível, o sistema já é capaz de tomar decisões e se autogerenciar, mesmo sem intervenção externa. Neste caso, o sistema tem controle total sobre suas tarefas e não há nenhum controle externo a ele. A alternativa proposta pelo GCAD visa a que Sistemas Industriais Automatizados atinjam até o terceiro nível de inteligência, sendo que intervenções externas podem ser admitidas nos casos em que uma ação puramente local e autônoma de fato não é recomendável ou não é possível, por exemplo, havendo necessidade de substituição de equipamentos ou dispositivos. O GCAD propõe um módulo de controle inteligente instanciado predominantemente em nível local que visa a permitir que cada Sistema Industrial Automatizado, distribuído em células, tome decisões críticas de uma forma autônoma. Adicionalmente, um módulo remoto deve gerenciar situações mais complexas que estão além da capacidade de decisão ou atuação do sistema de controle local. O modelo proposto visa a permitir ajustes automáticos e autônomos no sistema, a fim de melhorar seu desempenho, e prevenir ou tratar as falhas inesperadas,assegurando a continuidade da operação. / Salvador
|
180 |
Uma Abordagem para Recomendação de Módulos para Projetos de Desenvolvimento Distribuído de Linhas de Produto de SoftwarePereira, Thaís Alves Burity 28 February 2011 (has links)
Made available in DSpace on 2015-05-14T12:36:28Z (GMT). No. of bitstreams: 1
arquivototal.pdf: 2198784 bytes, checksum: 572b347cf59107b757a2f48f47d938a2 (MD5)
Previous issue date: 2011-02-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Software Product Line (SPL) has been adopted by software industry in recent years, mainly
by promoting software reuse in a systematic and predictable way, and supporting product
development for global markets. Despite the benefits, SPL requires a high initial effort and
the involvement of domain experts, which are not always available in a local team. In such a
scenario, Global Software Development (GSD) approaches would be applied to find domain
experts and more qualified teams for SPL projects. Moreover, such work strategy reinforces
some of the benefits already offered by SPL approach, such as reducing development cost and
increasing product quality. Nonetheless, GSD approaches also present some obstacles, which
are mainly related to communication between dispersed development teams. Assuming that
dependencies between software components greatly influence the need for communication
between their respective development teams, in this work it is presented an approach to
identify candidates for modules to be developed in a (partially) independent manner by
geographically dispersed teams, in which a module is a clustering of components. To do so,
the approach defines: quantitative measures that describe the dependence between software
components in SPL projects; an algorithm based on metaheuristics for clustering components
into modules, dealing with clustering as an optimization problem; and a quantitative measure
that describe the dependencies between modules, which must be employed to guide the
allocation of the development teams to the modules. / Linhas de Produto de Software (LPS) tem ganhado bastante espaço na indústria de software
nos últimos anos, principalmente por promover o reuso de maneira sistemática e previsível, e
oferecer apoio ao desenvolvimento de produtos para mercados globais. No entanto, o
desenvolvimento de LPS exige das organizações grande investimento inicial e a participação
de profissionais qualificados, os quais nem sempre estão disponíveis localmente. Nesse
cenário, o Desenvolvimento Distribuído de Software (DDS) pode ser empregado para
encontrar especialistas do domínio e equipes mais qualificadas para o desenvolvimento de
LPS. Além disso, essa forma de trabalho reforça alguns dos benefícios já oferecidos por LPS,
tais como redução de custo de desenvolvimento e aumento da qualidade dos produtos. Apesar
disso, abordagens de DDS também têm suas limitações, relacionadas principalmente à
comunicação entre as equipes participantes de um mesmo projeto. Partindo da premissa de
que dependências entre componentes de software exercem grande influência sobre a
necessidade de comunicação entre suas respectivas equipes de desenvolvimento, neste
trabalho é apresentada uma abordagem para identificar candidatos à módulos para serem
desenvolvidos de forma (parcialmente) independente por equipes geograficamente dispersas,
sendo um módulo um agrupamento de componentes. Para tanto, a abordagem define: medidas
quantitativas que descrevem a dependência entre componentes de software em projetos de
LPS; um algoritmo baseado em metaheurísticas para agrupar componentes em módulos,
tratando o agrupamento como um problema de otimização; e uma medida quantitativa que
descreve as dependências entre módulos, que deve ser empregada para guiar a alocação das
equipes de desenvolvimento aos módulos.
|
Page generated in 0.0681 seconds