• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 444
  • 10
  • 10
  • 10
  • 10
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 462
  • 430
  • 235
  • 188
  • 144
  • 124
  • 117
  • 79
  • 77
  • 61
  • 60
  • 52
  • 52
  • 51
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Arquitetura para replicação de serviços tolerantes a faltas bizantinas baseada em espaço de tuplas / Aldelir Fernando Luiz ; orientador, Luiz Augusto de Paula Lima Jr. ; co-orientador, Lau Cheuk Lung

Luiz, Aldelir Fernando January 2009 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2009 / Bibliografia: f. 107-115 / Diversas pesquisas para desenvolvimento de soluções práticas de suporte a aplicações distribuídas tolerantes a faltas bizantinas têm sido realizadas nos últimos anos. Na atualidade, um dos grandes desafios da computação distribuída consiste na especificaç / Some researches aiming to design practical algorithms to support Byzantine Fault-Tolerant distributed applications has been made in recent years. These solutions are designed to make the applications resistant to successful attacks against the system, the
82

Desenvolvimento de Web APIs RESTful semânticas baseadas em JSON

Salvadori, Ivan Luiz January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-04-29T21:09:45Z (GMT). No. of bitstreams: 1 333102.pdf: 3580158 bytes, checksum: ba1703beca878988af414a251c590687 (MD5) Previous issue date: 2015 / Os princípios arquiteturais REST estão sendo amplamente adotados nas implementações de sistemas distribuídos disponíveis na Web. As implementações REST são realizadas através de Web Services, que são comumente disponibilizados na forma de Web APIs, cujo principal objetivo é o intercâmbio de dados entre aplicações. No entanto, devido à falta de padrões e diretrizes para desenvolvimento, cada implementação REST segue uma linha de desenvolvimento, fato que resulta na dificuldade de construção de aplicações clientes, além de dificultar a composição de Web APIs. Outro desafio é a falta de suporte ao uso de controles hipermídia em representações de recursos que utilizam o formato JSON. Controles hipermídia podem assumir a forma de links, que guiam a navegação entre diferentes recursos. Este trabalho propõe uma abordagem de desenvolvimento com os passos necessários para modelar e implementar Web APIs RESTful Semânticas que suportam controles hipermídia em JSON. A abordagem identifica as representações necessárias e realiza anotações semânticas através de associações de propriedades e operações com termos de vocabulários controlados. Além disso, a abordagem busca separar a implementação da camada de integração de dados com as demais camadas do sistema, diminuindo o acoplamento e aumentando a coesão. De forma complementar, este trabalho apresenta um framework para o desenvolvimento de Web APIs RESTful baseado na abordagem de desenvolvimento proposta, sendo este compatível com a especificação JAX-RS. O suporte fornecido pelo framework proposto possibilita que o desenvolvedor concentre esforços no desenvolvimento do domínio do problema, sem perder tempo com infraestrutura. Com a utilização da abordagem proposta, juntamente com suporte ferramental oferecido pelo framework, espera-se proporcionar maior produtividade e qualidade no desenvolvimento de Web APIs alinhadas com os princípios arquiteturais REST.<br> / Abstract : The REST architectural principles are being widely adopted for implementing distributed systems on the Web. REST implementations are developed using Web Services technology and are made available through Web APIs, which have the main goal of interchanging data among applications. However, due the lack of development patterns and guidelines, each REST implementation follows its own development method. As a result, client applications are difficult to build and the composition of Web APIs becomes hard to achieve. Another challenge is the lack of support of hypermedia control in resource representations described using the JSON format. Hypermedia controls can be realized using hyperlinks, which guide navigation among multiple resources. This work proposes a development approach with the required steps for modeling and implementing Semantic RESTful Web APIs with support for hypermedia control in JSON format. The approach identifies resource representations and applies semantic annotations in order to bind properties and operations with terms defined by controlled vocabularies. On top of that, the development approach aims to achieve loose coupling and high cohesion through a clear division between the integration layer and the others layers of the system. In addition, this work proposes a framework based on the JAX-RS specification that provides support for the proposed development approach. The framework allows the software developer to focus on the implementation of the business core, instead of spending time to deal with infrastructure issues. The adoption of the proposed approach, together with the support provided by the framework, aims to improve the quality and productivity achieved by the development of Web APIs that follow the REST architectural principles.
83

Protocolos tolerantes a faltas bizantinas para transações em bancos de dados

Luiz, Aldelir Fernando January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2015. / Made available in DSpace on 2015-09-01T04:07:56Z (GMT). No. of bitstreams: 1 334062.pdf: 4102624 bytes, checksum: fcf76323275ca0a4c4b3f1ffd5c92285 (MD5) Previous issue date: 2015 / No âmbito de sistemas computacionais, a noção de transações constitui um dos elementos mais fundamentais para a especificação e implementação de aplicações com requisitos de confiabilidade e consistência, quanto à manipulação de dados. Ao longo dos anos, os sistemas de gerenciamento de banco de dados relacionais (SGBDR) têm sido considerados como componentes chave para o processamento de transações em sistemas computacionais; e, embora algumas alternativas aos SGBDRs tenham surgido nos últimos anos, há perspectivas de que um número significativo de sistemas computacionais permaneçam a utilizar os SGBDRs nos anos vindouros. Neste sentido, é imperioso que requisitos como confiabilidade, disponibilidade, desempenho, tolerância a faltas e consistência, sejam mantidos no SGBDR, com vista para o correto processamento de transações. Tais atributos podem ser obtidos por meio de replicação, sendo que a literatura é vasta em termos de soluções que visam a disponibilidade dos dados a despeito de faltas por parada intermitentes ou permanentes. Todavia, faltas oriundas da corrupção de dados em disco ou em memória RAM devido a efeitos físicos, ou decorrente de bugs no SGBDR, não afetam a disponibilidade dos dados, mas sim a integridade e a consistência destes. Estas faltas, que são caracterizadas como bizantinas, historicamente têm sido encontradas em SGBDRs, e elas afetam o processamento de transações comprometendo não apenas a exatidão, mas também o estado do banco de dados. A literatura dispõe de poucas soluções para lidar com faltas bizantinas em SGBDRs, onde algumas são baseadas em hipóteses difíceis de serem substanciadas na prática; ou em modelos de consistência mais relaxados, que podem causar problemas de integridade, consistência ou até mesmo corrupção de dados. Isto posto, elas não atendem plenamente todos os tipos de aplicações. Neste ensejo, esta tese versa sobre problemas relacionados ao processamento e a terminação de transações em SGBDRs e sistemas distribuídos, em ambientes com sujeição a faltas bizantinas. Para isso, esta tese apresenta duas grandes contribuições no âmbito de transações em SGBDRs. A primeira consiste num protocolo que permite o processamento e terminação de transações, a despeito de faltas bizantinas nas réplicas de bancos de dados  o primeiro da literatura a explorar a semântica de consistência mais forte de transações  , a partir de um protocolo de replicação tolerante a faltas bizantinas totalmente distribuído. A segunda investiga o problema da terminação de transações distribuídas em ambientes sujeitos a faltas bizantinas  um problema sem solução pela literatura  , que é conhecido como Validação Atômica Não-Bloqueante (NBAC) e visa assegurar uma decisão uniforme para os participantes da transação acerca da validação ou anulação das operações executadas num ambiente distribuído de banco de dados. A contribuição para este problema se baseia na investigação dos aspectos práticos necessários para resolvê-lo, onde é introduzido o conceito de Gerenciador Colaborativo de Transações em substituição ao Gerenciador de Transações, tradicionalmente empregado como agente num protocolo NBAC. A solução proposta para resolver o NBAC com faltas bizantinas baseia-se num conceito novo, que adota a tecnologia de virtualização como suporte para a especificação de uma arquitetura de sistema distribuído que permite circunscrever o problema. As soluções propostas foram comparadas de maneira analítica com soluções encontradas na literatura, bem como através de ensaios experimentais, a fim de comprovar a viabilidade das mesmas.<br> / Abstract : Within computer systems, the concept of transaction is one of the most fundamental elements for the specification and implementation of applications with reliability and consistency requirements concerning handling of data. Over the years, relational database management systems (RDBMS) have been considered key components for transaction processing in computer systems; and although some alternatives to RDBMSs have emerged in recent years, there are prospects that a significant number of computer systems will continute to use RDBMSs in coming years. In this sense, the need to provide reliability, availability, performance, fault tolerance and consistency, regarding transaction processing in RDBMS is imminent. Such attributes may be obtained through database replication. The literature is extensive in terms of solutions for data availability regardless of crash faults (e.g. intermittent or permanent). However, faults arising from the disk data corruption or RAM data corruption due to physical effects, or due to bugs in the RDBMS, do not affect the availability of data, though they affect their integrity and consistency. These faults, which are known as Byzantine, have historically been found in RDBMSs, and they affect transaction processing undermining not only the accuracy but also the database state. The literature offers few solutions to deal with Byzantine faults in RDBMSs, where some are based on difficult cases to be used in practice; or more relaxed consistency models, which can cause integrity, consistency or even data corruption problems. So, they are not addressed to all types of applications. As it is, this thesis deals with problems related to transaction processing and transaction termination on RDBMS and distributed systems, in environments subject to Byzantine fault. To this end, this thesis presents two major contributions to the transaction level in RDBMSs. The first is a protocol that allows the transaction processing and transaction, despite Byzantine faults in databases replicas  the first in literature that explores the strongest consistency semantics of transactions (e.g. serializability)  , by means of a fully distributed Byzantine fault tolerant database replication protocol. The second investigates the agreement problem related to transaction termination in distributed systems, also in environments subject to Byzantine fault  an unsolved problem in the literature. The Non Blocking Atomic Commitment (NBAC), as it known, aims to ensure a uniform decision for the transaction participants about the operations performed in a distributed database environment, that is, commit or abort them. The contribution to this problem is based on the investigation of practical and necessary conditions, to solve it. So, this thesis introduces the Collaborative Transaction Manager to replace the Transaction Manager, traditionally used as an agent on a NBAC protocol. The solution proposed to solve the NBAC with Byzantine fault is based on a new concept, adopting virtualization technology as a support for the specification of a distributed system architecture which makes the problem feasible. The proposed solutions were compared analytically with solutions found in the literature as well as through experimental tests in order to prove their feasibility.
84

Engenharia de protocolos com transformação de especificações formais: a ferramenta tran SP

Tonin, Neilor Avelino January 1996 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T20:39:17Z (GMT). No. of bitstreams: 1 104398.pdf: 3606804 bytes, checksum: fb6214131346d51ecfad2c0f3f093664 (MD5) Previous issue date: 1996 / Análise de abordagens de projeto baseadas em regras de transformações que visam a automatização do processo de síntese de protocolos. Uma vez aplicadas à uma especificação formal de um serviço de comunicação realizada com a Técnica de Descrição Formal LOTOS, as regras de transformação geram automaticamente, a especificação do protocolo de comunicação correspondente a esse serviço. É então apresentado um conjunto de algoritmos de transformação de especificações, que são aplicáveis a especificações de serviço para a obtenção dos protocolos correspondentes. Tais algoritmos são implementados em linguagem C++ para Windows, constituindo uma ferramenta denominada TranSP - Transformação de especificação de Serviço em especificação de Protocolo. Esta ferramenta recebe, como entrada, uma especificação de serviço monolítica e gera, como saída, as especificações de protocolo correspondentes às duas entidades de protocolo (E1 e E2), orientadas a recursos. A ferramenta TranSP é utilizada na transformação de uma parte do serviço CMISE (Common Management Information Service Element) correspondente aos serviços M-GET e M-CANCEL-GET para o protocolo CMIP (Common Management Information Protocol) correspondente.
85

Algumas distribuições de probalidade para idosos grupados e censurados

Cruz, José Nilton da [UNESP] 09 February 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:03Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-02-09Bitstream added on 2014-06-13T20:49:42Z : No. of bitstreams: 1 cruz_jn_me_botib.pdf: 562672 bytes, checksum: b3ad775d02dc10ea4de46942362904f0 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / São comuns experimentos conduzidos de forma a não permitir a observação do tempo exato de ocorrência do evento (por exemplo, morte), e sim o intervalo em que este ocorreu, caracterizando assim, respostas com censura intervalar. Quando os indivíduos são avaliados nos mesmos tempos, tem-se um caso particular de censura intervalar, sendo os dados deste tipo conhecidos como grupados e censurados. Dados grupados podem apresentar um grande número de empates, ou seja, proporção de empate maior que 25% (Chalita et al., 2002), podendo ser analisados considerando-se o tempo discreto e ajustando-se modelos à probabilidade de o indivíduo falhar em um certo intervalo, dado que ele sobreviveu ao intervalo anterior (Lawless, 1982). O objetivo deste trabalho é propor modelos de sobrevivência para dados grupados e censurados baseado nas distribuiçõess Weibull Generalizada (Mudhol kar et al., 1996), Log-Weibull Exponenciada (Hashimoto et al., 2010) e Log-Burr XII (Silva, 2008). Posteriormente, estes modelos e os modelos Log-Normal Generalizada e Weibull Exponenciada extendidos para dados grupados e censurados por Silveira et al. (2010), serão aplicados à um conjunto de dados referente a um estudo de pacientes submetidos a cirurgia de Duhamel-Haddad (em que os modelos Log-Normal Generalizada e Weibull Exponenciada já foram ajustados em Silveira et al. (2010)), e comparados pelo critério de Informação de Akaike Corrigido (AICс) / Experiments which are unable to accurately indicate the time of their occurrence are frequent (death, for instance) only the time they occur is related, which means answers with interval- censored . When individuals are assessed at the same time, there is a particular case interval-censored, and the data in this case is known as grouped and censored. Data of this kind can have a large number of ties whose proportions are greater than 25% (Chalita et al., 2002), and can be analyzed considering the discrete time and fitting models to the probability of the individual’s eventual failure and the timing of the failure, as he survived the previous interval (Lawless, 1982). The aim of this paper is to propose survival models data grouped based on Generalized Weibull distributions (Mudholkar et al., 1996), Log-ExponentiatedWeibull (Hashimoto et al., 2010) and Log-Burr XII (Silva, 2008). These models, the Generalized Lognormal and Weibull Exponential models extended to grouped data and censored by Silveira et al. (2010), will be applied to a data set concerning a study of patients undergoing Duhamel-Haddad surgery (whose Generalized Lognormal and Weibull Exponential models have been adjusted in Silveira et al. (2010), and compared by the Fixed Akaike information criterion (AICc)
86

Um mecanismo integrado de cache e prefetching para sistemas de entrada e saída de alto desempenho.

Dodonov, Evgueni 26 February 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:31Z (GMT). No. of bitstreams: 1 DissED.pdf: 797835 bytes, checksum: 2cb1cf03ad0e87b75038c325d0b2f91c (MD5) Previous issue date: 2004-02-26 / Universidade Federal de Sao Carlos / An integrated caching and prefetching mechanism for a parallel network file system has the potential to improve both the speed and performance of I/O operations. Different cache policies and algorithms can be used in the system. Different prefetching mechanisms can also be used in the system. The performance of the I/O operations can also be influenced by other techniques, such as the assynchronous write, cache consistency and cache space organization and distribution. This work presents the implementation of an integrated caching and prefetching architecture, intended to be used in distributed file systems. Also, this work elaborates an adaptive access pattern discovery algorithm to be used in prefetching mechanisms, denominated CPS, and two prefetching strategies, called prefetch-on-empty and limited aggressive. As the case studies, this work presents two multimedia servers a on-demand multimedia server, and a streaming media server. The influence of the proposed cache and prefetching mechanisms on tested applications is discussed. This work presents and discusses the functionality of integrated caching and prefetching mechanisms, benchmarking the implemented algorithms and overviewing the influence of chosen policies on the applications behavior. / Um mecanismo integrado de cache e prefetching para um sistema de arquivos paralelos em rede tem o potencial para aumentar a velocidade e o desempenho das operações de entrada e saída de dados. Vários tipos de cache, com políticas e algoritmos variados, podem ser empregados. Além disto, mecanismos distintos de prefetching de dados podem ser utilizados. Outras técnicas, como a escrita assíncrona, a manutenção da consistência do cache e a organização e distribuição do espaço no cache também podem influenciar no desempenho destas operações. Este trabalho apresenta a implementação de uma arquitetura integrada de mecanismos de cache e prefetching para sistemas de arquivos distribuídos. Além disto, este trabalho elabora um algoritmo adaptativo de determinação do padrão de acesso para ser utilizado em mecanismos de prefetching, CPS, e duas estratégias de prefetching, denominadas prefetch-on-empty e limited aggressive. Como estudos de caso, o trabalho apresenta dois servidores multimídia um servidor de arquivos multimídia on-demand, e um servidor de mídia contínua (streaming). A in- fluência dos mecanismos propostos nos aplicativos estudados é discutida. O trabalho apresenta e discute a funcionalidade dos mecanismos integrados de cache e prefetching, avaliando os algoritmos implementados e a influência da escolha das políticas adequadas no funcionamento de aplicações do usuário.
87

Algumas distribuições de probalidade para idosos grupados e censurados /

Cruz, José Nilton da. January 2012 (has links)
Orientador: Liciana Vaz de Arruda Silveira / Banca: Roseli Aparecida Leandro / Banca: Lídia Raquel de Carvalho / Resumo: São comuns experimentos conduzidos de forma a não permitir a observação do tempo exato de ocorrência do evento (por exemplo, morte), e sim o intervalo em que este ocorreu, caracterizando assim, respostas com censura intervalar. Quando os indivíduos são avaliados nos mesmos tempos, tem-se um caso particular de censura intervalar, sendo os dados deste tipo conhecidos como grupados e censurados. Dados grupados podem apresentar um grande número de empates, ou seja, proporção de empate maior que 25% (Chalita et al., 2002), podendo ser analisados considerando-se o tempo discreto e ajustando-se modelos à probabilidade de o indivíduo falhar em um certo intervalo, dado que ele sobreviveu ao intervalo anterior (Lawless, 1982). O objetivo deste trabalho é propor modelos de sobrevivência para dados grupados e censurados baseado nas distribuiçõess Weibull Generalizada (Mudhol kar et al., 1996), Log-Weibull Exponenciada (Hashimoto et al., 2010) e Log-Burr XII (Silva, 2008). Posteriormente, estes modelos e os modelos Log-Normal Generalizada e Weibull Exponenciada extendidos para dados grupados e censurados por Silveira et al. (2010), serão aplicados à um conjunto de dados referente a um estudo de pacientes submetidos a cirurgia de Duhamel-Haddad (em que os modelos Log-Normal Generalizada e Weibull Exponenciada já foram ajustados em Silveira et al. (2010)), e comparados pelo critério de Informação de Akaike Corrigido (AICс) / Abstract: Experiments which are unable to accurately indicate the time of their occurrence are frequent (death, for instance) only the time they occur is related, which means answers with interval- censored . When individuals are assessed at the same time, there is a particular case interval-censored, and the data in this case is known as grouped and censored. Data of this kind can have a large number of ties whose proportions are greater than 25% (Chalita et al., 2002), and can be analyzed considering the discrete time and fitting models to the probability of the individual's eventual failure and the timing of the failure, as he survived the previous interval (Lawless, 1982). The aim of this paper is to propose survival models data grouped based on Generalized Weibull distributions (Mudholkar et al., 1996), Log-ExponentiatedWeibull (Hashimoto et al., 2010) and Log-Burr XII (Silva, 2008). These models, the Generalized Lognormal and Weibull Exponential models extended to grouped data and censored by Silveira et al. (2010), will be applied to a data set concerning a study of patients undergoing Duhamel-Haddad surgery (whose Generalized Lognormal and Weibull Exponential models have been adjusted in Silveira et al. (2010), and compared by the Fixed Akaike information criterion (AICc) / Mestre
88

Parametrização e cálculo estrutural através do método dos elementos finitos de uma comporta segmento de fundo /

Costa, Marcelo Anderson. January 2016 (has links)
Orientador: Fernando de Azevedo Silva / Banca: Erick Siqueira Guidi / Banca: Carlos Alberto Chaves / Resumo: As comportas hidráulicas são essenciais para a proteção e operação de canais e barragens, diante disso este trabalho apresenta a parametrização de um modelo em três dimensões (3D) utilizando a ferramenta ilogic, com a linguagem de programação Visual Basic (VB), e o cálculo estrutural pelo método dos elementos finitos (MEF) de uma comporta segmento de fundo com dimensões de 6,0 m de largura (L) por 5,0 m de altura (H), com raio (R) de 10,0 m e submetida a uma pressão hidráulica (Hs) de 45,3 m.c.a, utilizando para isso o software Autodesk Inventor 2014. Esta comporta, que é utilizada em vertedores de fundo de barragens, possui grande complexidade de projeto e cálculo devido a sua geometria radial e a elevada pressão que está submetida. Baseado nisso, foi desenvolvido um modelo 3D parametrizado para criar o projeto da estrutura desta comporta a partir de quaisquer dimensões fornecidas pelo usuário, o que apresentou resultados muito satisfatórios gerando os modelos 3D utilizados neste trabalho na fase de otimização, os quais foram submetidos a análise das tensões e deslocamentos utilizando um mesmo software em todo este processo. O uso desta ferramenta customizada com as características específicas do equipamento resultou em uma grande economia de tempo e de recursos financeiros e humanos no desenvolvimento do projeto, pois esta ferramenta possibilitou a padronização de um processo e também a sua automatização. Contudo, o desenvolvimento desta ferramenta possibilitou o sucesso n... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Hydraulic gates are essential for the protection and operation of canals and dams, given that this research presents the parameterization of a three dimensions (3D) model using the ilogic tool with the programming language Visual Basic (VB), and the structural calculation by the finite element method (FEM) of a gate bottom segment with dimensions of 6.0 m wide (L) by 5.0 m height (H) with radius (R) of 10.0 m subjected to a hydraulic pressure (Hs) 45.3 m.w.c, making use of Autodesk Inventor 2014 software. This entails that is used in dam spillways background, has high calculation complexity and design due to its radial geometry and high pressure is subjected. Based on this, a 3D model was developed parameterized to create the structure of the design of this gate from any dimensions provided by the user, which showed very good results generating 3D models used in this work in the optimization phase, which were subjected to analysis the stresses and displacements using the same software in all of this. The use of this customized tool to the specific characteristics of the equipment resulted in a great savings of time and financial and human resources in the development of the project, because this tool made it possible to standardize a process and also its automation. However, the development of this tool has enabled the success in the objectives of optimizing the design in order to reduce the mass without any increase in hours of design or manufacturing, and obtained indeed percentage reductions in engineering hours to calculate and presented structure 91 project % and the net weight of 20.8% compared to the traditional design of the gate used as a reference method that has already been built, which are significant and conclusive results that the use of this robust method and design of advanced can increase efficiency and competitiveness equipment manufacturers market companies / Mestre
89

Aplicação de ontologias à engenharia de requisitos em ambientes de DDS

Angrisani, Ricardo Rosa January 2006 (has links)
Made available in DSpace on 2013-08-07T18:43:32Z (GMT). No. of bitstreams: 1 000418878-Texto+Completo-0.pdf: 1166598 bytes, checksum: 638c3d51308a797479215be816b6345d (MD5) Previous issue date: 2006 / The new rising challenges coming from the increasing distribution of software development operations are contributing to maximize Software Engineering problems. So, in order to decrease the Distributed Software Development impacts in the work of the teams, this research consists on identifying a Software Engineering process which could have more value aggregated through the definition of a process that provides knowledge formalization in order to decrease interpretation problems and ambiguities about concepts and their relationships. It’s expected this formalization will promote better communication and understanding between people and will contribute with the facilitation of the work done by the distributed teams in the software Engineering area. / Os novos desafios que surgem em virtude da crescente distribuição de operações de desenvolvimento de software acentuam os problemas relacionados à Engenharia de Requisitos. Assim, a fim de amenizar o impacto do Desenvolvimento Distribuído de Software no trabalho das equipes, este trabalho consiste em identificar um processo de Engenharia de Requisitos no qual se obtenha valor agregado através da aplicação de técnicas de Gestão de Conhecimento. A proposta visa definir um processo no qual se possa facilitar e prover a formalização do conhecimento a fim de diminuir as ambigüidades na interpretação de conceitos e seus relacionamentos facilitando o entendimento entre as pessoas. A pesquisa contribui ao propor um processo e uma ferramenta que facilitem o trabalho das equipes dispersas com requisitos de software.
90

Automated emulation of distributed systems through system management and virtualization

Calheiros, Rodrigo Neves January 2010 (has links)
Made available in DSpace on 2013-08-07T18:43:39Z (GMT). No. of bitstreams: 1 000422781-Texto+Completo-0.pdf: 5148878 bytes, checksum: d7b0826fe17c2d5b479517821f279c99 (MD5) Previous issue date: 2010 / Distributed systems are composed of geographically distributed computing elements that belong to multiple administrative domains and are controlled by multiple entities. These characteristics from distributed systems make hard the task of testing and evaluating software for this platform, because it is unlikely that testers/system or policy evaluators are able to acquire repeatedly the same re- sources, for the same amount of time, and under the same network conditions, which are paramount requirements for enabling reproducible and controlled tests in software under development. An al- ternative to experiments in real testbeds is emulation, where a model of a system hosts the actual software under test. Virtualization technology enables development of efficient emulators because it offers means for resources multiplexing and isolation. Even though virtualization makes easier development of emulators, there are few efforts in isolating testers/system or policy evaluators from operation of the virtualization tools and environment. This thesis presents Automated Emulation Framework (AEF), which applies virtualization and systems management technology in a cluster of workstations to provide testers/system or policy evaluators with a tool for automated emulation of distributed systems. Three main activities are performed by AEF. First, it performs the mapping of virtual machines that represents nodes from the emulated distributed environment to cluster nodes and emulated links between virtual machines to paths in the physical network; second, it performs automated installation and configuration of virtual machines in the cluster and virtual network in the cluster network; third, it performs automated configuration and triggering of experiments in the emulated system, monitoring and control of environment and applications, and system reconfigu- ration in case of violations in the tester/system or policy evaluator demands. Regarding the first activity, the mapping problem is formally defined and four heuristics for solution of the problem are developed and evaluated with the use of discrete-event simulation. Regarding the last two activities, AEF architecture is described in details. Furthermore, an AEF prototype is developed and evalu- ated by execution of experiments in the context of grid computing. Experiment results show that implementation of the architecture is feasible and that AEF can be a valuable tool for repeatable and controllable distributed systems experimentation. / Sistemas distribuídos são compostos de elementos computacionais geograficamente distribuídos que pertencem a múltiplos domínios administrativos controlados por múltiplas entidades. Estas características dificultam testes e avaliações nesta plataforma, porque dificilmente testadores/avaliadores de sistemas ou políticas adquirem repetidamente os mesmo recursos pela mesmo período de tempo sob as mesmas condições de rede, o que são requisitos fundamentais para testes reproduzíveis e controlados do software em desenvolvimento. Uma alternativa a experimentos em plataformas reais é emulação, onde o modelo de um sistema executa o software real sob teste. A tecnologia de virtualização possibilita o desenvolvimento de emuladores eficientes porque ela oferece meios para multiplexação e isolamento de recursos. Apesar da virtualização facilitar o desenvolvimento de emuladores, pouco esforço tem sido feito para isolar testadores/avaliadores de sistemas ou políticas da operação das ferramentas e do ambiente virtualizado. Esta tese apresenta o Automated Emulation Framework (AEF), que aplica tecnologias de virtualização e gerência de sistemas em um cluster de estações de trabalho a fim de oferecer uma ferramenta automatizada para emulação de sistemas distribuídos. Três atividades principais são realizadas pelo AEF: primeiro, ele realiza o mapeamento das máquinas virtuais que representam nós do ambiente distribuído emulado para nós do cluster e dos links entre máquinas virtuais para caminhos na rede física; segundo, ele realiza a instalação e configuração automática das máquinas virtuais no cluster e rede virtual na rede do cluster; terceiro, ele realiza configuração e disparo automático de experimentos no sistema emulado, monitoração e controle do ambiente e aplicações, e reconfiguração do sistema em caso de violações nas demandas do testador/avaliador de sistemas ou políticas. Em relação à primeira atividade, o problema de mapeamento é definido formalmente e quatro herísticas para solução do problema são desenvolvidas e avaliadas com o uso de simulação de eventos discretos. Em relação às duas últimas atividades, a arquitetura do AEF é descrita em detalhes. Além do mais, um protótipo do AEF é desenvolvido e avaliado através da realização de experimentos no contexto de grades computacionais. Experimentos mostram que a arquitetura é realizável e que AEF pode ser uma ferramenta valiosa para experimentação repetida e controlável de sistemas distribuídos.

Page generated in 0.1181 seconds