Spelling suggestions: "subject:"distribuídos"" "subject:"distribuída""
21 |
Distribuindo dados e consultas em um ambiente de data warehousing na webPALILOT, Álvaro Alencar Barbosa 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:09Z (GMT). No. of bitstreams: 2
arquivo2165_1.pdf: 4172677 bytes, checksum: ea3ea3e11ec0d8121f94e360f3eba253 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Nos dias atuais, uma das ferramentas mais utilizadas de Business Intelligence
(BI) para o suporte à decisão da alta gerência de grandes companhias é o Data
Warehouse (DW). O DW é um banco de dados que armazena seus dados de uma forma
especial para que se otimizem as consultas orientadas ao negócio, além dos dados
terem como características a não volatilidade, serem históricos e integrados. O
ambiente em que o DW está inserido é o Data Warehousing que contempla não só o
DW mais outros componentes que o ajudam a desempenhar a sua atividade fim.
O aumento da quantidade de usuários utilizando esse ambiente, o crescimento
exponencial do tamanho do DW, além da necessidade de otimizar as consultas e
atender localmente os interesses da diretoria dos departamentos ou filiais específicas,
fez com que pesquisadores da área de banco de dados buscassem soluções para obter
a distribuição dos dados e consultas de uma forma transparente e segura em um
ambiente de data warehousing. Atualmente, existem vários trabalhos correlatos nessa
linha de pesquisa, porém nenhum demonstra na prática o resultado efetivo de uma
arquitetura que contemple essas vantagens.
Esse trabalho toma como base a arquitetura do sistema WebD²W (Web
Distributed Data Warehousing) proposta por Cristina Ciferri para efetivar essa
distribuição. Assim, foram desenvolvidos o componente de distribuição, utilizando o
conceito de grafos de derivação para o desenvolvimento de algoritmos de
fragmentação horizontal e mista, e o componente de consulta do ambiente
distribuído, estendendo o servidor OLAP Mondrian para atender às necessidades
impostas por essa nova arquitetura. Finalmente, um DW de uma rede de locadoras de
DVD foi gerado para ser utilizado como estudo de caso para mostrar a aplicabilidade e
eficiência desses componentes
|
22 |
Almeida, Ana Carina Mendes Uma proposta de boas práticas para suportar o gerenciamento de tempo em projetos de desenvolvimento distribuído de softwareALMEIDA, Ana Carina Mendes 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:55:11Z (GMT). No. of bitstreams: 2
arquivo2166_1.pdf: 4621412 bytes, checksum: 2d42f93c9625807012687a89716687a6 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / No contexto do mundo moderno, observamos que muitas organizações se apresentam
cada vez mais motivadas a aderir ao Desenvolvimento Distribuído de Software (DDS).
Boa parte dessa motivação tem razões econômicas, ou seja, a busca de mão de obra
especializada a um custo mais baixo, inclusive considerando a disponibilidade de pessoas
qualificadas em várias regiões. Desta forma, é possível aproveitar o que cada região tem
de melhor a oferecer, seja em termos de custo (recursos humanos), qualidade, agilidade,
políticas de incentivo fiscais, capacitação e quantidade de pessoas disponíveis, entre
outros benefícios.
Algumas pesquisam comprovam que o esforço para desenvolver um software em
ambiente DDS é maior do que o esforço despendido no ambiente centralizado. Esta
diferença adicional vem de aspectos não-técnicos, tais como, coesão das equipes, dependência
entre sites (equipes), esforço adicional de comunicação decorrente da distância,
transferência de conhecimento entre sites, maior esforço de gerência de projeto, entre
outros aspectos. Atualmente, os principais fatores que podem influenciar no aumento de
esforço em ambientes DDS não estão catalogados de forma sistemática, além disso, há
escassez na literatura de boas práticas direcionadas ao planejamento de projeto DDS que
ajudem aos líderes a mitigá-los.
Esta dissertação tem como objetivo geral propor um conjunto de boas práticas a serem
incorporadas no processo de gerenciamento de tempo, visando suportar o processo de
planejamento de um projeto DDS. Para tanto, foram identificados os possíveis fatores
que podem causar desvio no esforço estimado para desenvolvimento de software em
ambiente DDS, tais como, overhead de comunicação, diferença cultural, processos de
desenvolvimento diferenciados entre sites. A identificação dos fatores ocorreu na Fase
I do presente trabalho através de um estudo do referencial teórico sobre o tema e uma
pesquisa de natureza quali-quantitativa, que objetivava a validação dos fatores em campo.
A partir da identificação e validação dos fatores, realizamos a Fase II baseada em
pesquisa qualitativa, foram entrevistados 11 líderes de projetos DDS, a fim de capturar os
relatos de lições aprendidas e propor um conjunto de boas práticas para melhor suportar os
gerentes durante as etapas do gerenciamento de tempo de projetos DDS. Sendo possível
destacar as seguintes práticas propostas: considerar tempo e recursos para merge e teste
de integração do código entre sites; padronização de templates, ferramentas e processos
do ciclo de desenvolvimento de software comuns a todas as equipes; e compartilhamento
o progresso das atividades entre todos os sites, entre outras
|
23 |
Fatores que Afetam Negativamente os Modelos de Desenvolvimento Distribuído de SoftwareRocha, Rodrigo Gusmão de Carvalho 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:58:17Z (GMT). No. of bitstreams: 2
arquivo3449_1.pdf: 1857045 bytes, checksum: 0fc5acb873c033d2bfbaba0251c0006c (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Há muitos anos o desenvolvimento de software se tornou fundamental para o
mercado global. Na década passada, como reflexo da globalização, empresas de software
começaram a distribuir seus processos de desenvolvimento em lugares diferentes, criando o
desenvolvimento distribuído de software (DDS). Esta abordagem herdou os problemas
existentes no desenvolvimento tradicional (co-localizado) e por diversas razões acrescentou
outras dificuldades. Com a ascensão do DDS, as organizações tentam distribuir da melhor
maneira suas atividades do desenvolvimento de software.
Esse trabalho objetiva identificar quais modelos de colaboração são utilizados pela
indústria e/ou academia para desenvolver software no contexto distribuído, tendo como
base o ciclo de vida básico do desenvolvimento tradicional de software (requisitos, análise,
implementação e testes), como também suas variações e se as fases do mesmo são
realizadas onsite (no cliente), distribuído/offshore e multi-site (em ambos). Assim como,
apresentar quais são os desafios que afetam cada fase do ciclo de vida das empresas.
O método utilizado para levantar as formas de colaboração foi uma revisão
sistemática da literatura, método da Engenharia de Software baseado em evidências, que
analisou 840 trabalhos publicados desde 2000 até 2009, e também uma pesquisa de campo,
realizada com 10 projetos distribuídos. Para identificar os fatores que afetam as atividades
do desenvolvimento foi utilizada a mesma pesquisa de campo no mercado nacional de
software, onde através de um questionário, as empresas pesquisadas citaram os problemas
que enfrentam e que modelos de colaboração as mesmas utilizam.
A partir dos resultados é possível afirmar que os modelos existentes na literatura são
distintos dos utilizados na indústria e que os fatores que afetam o desenvolvimento
distribuído são comuns entre as empresas. Dessa forma, é possível visualizar os desafios
que a indústria nacional enfrenta para cada fase do desenvolvimento. Logo, este estudo
também tem o propósito de favorecer futuros trabalhos, que tenham como objetivos propor
soluções para tais problemas e modelos
|
24 |
Proposta de Processo de Documentação e Validação dos Requisitos para Equipes de Desenvolvimento Distribuído de SoftwareMelo de Medeiros, Leonardo January 2007 (has links)
Made available in DSpace on 2014-06-12T16:00:03Z (GMT). No. of bitstreams: 2
arquivo5830_1.pdf: 994468 bytes, checksum: 0c42a3f14ea03f78e0285333116f66b4 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2007 / A pesquisa em desenvolvimento distribuído de software está num momento relevante e oportuno.
Devido a necessidade industrial em distribuir o desenvolvimento do software em diversas
localidades, formando equipes distribuídas de desenvolvimento. Essa forma distribuída de
desenvolvimento trás preocupações nos aspectos culturais, operacionais e técnicos do desenvolvimento
de software quando realizado por equipes distribuídas. Dentro desse contexto, as
atividades de documentação e validação de requisitos são necessárias para assegurar que estes
estejam completos e corretos. Contudo, a distância entre os participantes impacta na produtividade
desse processo dificultando a obtenção da congruência e consenso nos requisitos por
parte das equipes distribuídas.
Estudos indicam que o processo de validação de requisitos por parte dos stakeholders necessita
estar bem estruturado para ocorrer de forma efetiva em ambientes distribuídos de desenvolvimento,
pois as revisões consomem bastante tempo mesmo quando realizadas presencialmente
através de comunicação face a face.
Nesta pesquisa realizamos um estudo de caso com uma abordagem exploratória num projeto
de desenvolvimento de software. O caso analisado ocorreu dentro das atividades do projeto
Agentes Micromundo e Análise do Desenvolvimento no Uso de Instrumentos Multimídia
(AMADeUs-MM) que é um projeto de pesquisa desenvolvido por várias instituições. Devido à
distribuição geográfica de seus integrantes, esse projeto serviu como estudo de caso para identificar
qual a estrutura das práticas relacionados à validação e documentação dos requisitos de
uma equipe de desenvolvimento distribuído de software.
A partir da análise do estudo de caso, propomos um processo de Engenharia de Requisitos
adequado às necessidades existentes no desenvolvimento distribuído de software dentro do
grupo estudado
|
25 |
Proposta de estrutura analítica de riscos para projetos de desenvolvimento distribuído de softwareOLIVEIRA, Keldjan Alves de 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:00:47Z (GMT). No. of bitstreams: 2
arquivo6954_1.pdf: 999695 bytes, checksum: 8f1f149f0454837ecfef7b519ca43c29 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Progressivamente, projetos de software estão se tornando distribuídos
geograficamente, com interação face a face limitada entre os participantes. Estes
projetos enfrentam desafios particulares que requerem uma atenção cuidadosa em
seu gerenciamento. A identificação dos riscos e de seus fatores significa a
compreensão das origens de cada incerteza. Deve-se, portanto, buscar responder
por que as incertezas existem no ambiente e quais são as condições que
potencializam a concretização do evento estudado. Esta dissertação tem por
objetivo propor uma Estrutura Analítica de Riscos (EAR) a qual cataloga os fatores
de riscos identificados no gerenciamento de riscos em projetos de
Desenvolvimento Distribuído de Software (DDS) a fim de permitir o entendimento
da distribuição de riscos no projeto e apoiar seu gerenciamento. Para alcançar este
objetivo, um Mapeamento Sistemático de Estudos da literatura dos Fatores de
Riscos em DDS foi executado. Através do mapeamento, um total de 390 estudos
foi identificado. Destes, vinte e três (23) estudos primários foram identificados
como relevantes e classificados de acordo com a pergunta da pesquisa. A principal
contribuição deste trabalho é permitir uma melhor compreensão dos fatores de
riscos originados neste tipo específico de projeto gerando informações que possam
auxiliar na estruturação e processos das empresas que lidam com este tipo de
projeto
|
26 |
Uma abordagem para tratar o acompanhamento ágil de projetos distribuídos por meio de adaptações do ScrumMuñoz, Hernan Julho 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T16:01:19Z (GMT). No. of bitstreams: 2
arquivo7602_1.pdf: 8055024 bytes, checksum: 78de7ba067bb34fe01c224b253db8777 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2011 / Faculdade de Amparo à Ciência e Tecnologia do Estado de Pernambuco / Devido aos benefícios alcançados, como redução no tempo de entrega e custos, aumento
da satisfação dos clientes e dos membros das equipes, muitas empresas têm adotado o
desenvolvimento ágil. Todavia, apesar deste considerar que a equipe deve trabalhar mais
próxima (no mesmo físico), o número de empresas que começaram adotar o desenvolvimento ágil com equipes remotas tem crescido significativamente pelas vantagens de
trabalhar com equipes em paralelo e com isso aumentar ainda mais a produtividade.
As metodologias ágeis, tal como o Scrum, ajudam o gerenciamento de projetos distribuídos por meio de algumas práticas, como por exemplo, as reuniões diárias. Entretanto,
essas práticas não foram definidas para este contexto com equipes remotas, sendo necessário deste modo serem adaptadas. Assim, com o objetivo de ajudar as equipes neste
contexto, este trabalho definiu uma abordagem que auxilie o acompanhamento ágil de
projetos distribuídos por meio de customizações das práticas do Scrum. Como objetivo
secundário este trabalho propôs um conjunto de ambientes virtuais para automatizar as
práticas customizadas pela abordagem, permitindo com isso a realização das reuniões
remotamente
|
27 |
Visões progressivas de computações distribuidasGarcia, Islene Calciolari, 1971- 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-29T03:55:29Z (GMT). No. of bitstreams: 1
Garcia_IsleneCalciolari_D.pdf: 7273210 bytes, checksum: 2bc04d2a705337b28f6c598e011ecde7 (MD5)
Previous issue date: 2001 / Resumo: Um checkpoint é um estado selecionado por um processo durante a sua execução. Um checkpoint global é composto por um checkpoint de cada processo e é consistente se representa urna fotografia da computação que poderia ter sido capturada por um observador externo. Soluções para vários problemas em sistemas distribuídos necessitam de uma seqüência de checkpoints globais consistentes que descreva o progresso de urna computação distribuída. Corno primeira contribuição desta tese, apresentamos um conjunto de algoritmos para a construção destas seqüências, denominadas visões progressivas. Outras contribuições provaram que certas suposições feitas na literatura eram falsas utilizando o argumento de que algumas propriedades precisam ser válidas ao longo de todo o progresso da computação. Durante algumas computações distribuídas, todas as dependências de retrocesso entre checkpoints podem ser rastreadas em tempo de execução. Esta propriedade é garantida através da indução de checkpoints imediatamente antes da formação de um padrão de mensagens que poderia dar origem a urna dependência de retrocesso não rastreável. Estudos teóricos e de simulação indicam que, na maioria das vezes, quanto mais restrito o padrão de mensagens, menor o número de checkpoints induzidos. Acreditava-se que a caracterização minimal para a obtenção desta propriedade estava estabelecida e que um protocolo baseado nesta caracterização precisaria da manutenção e propagação de informações de controle com complexidade O(n2), onde n é o número de processos na computação. A complexidade quadrática tornava o protocolo baseado na caracterização mimimal menos interessante que protocolos baseados em caracterizações maiores, mas com complexidade linear.A segunda contribuição desta tese é uma prova de que a caracterização considerada minimal podia ser eduzida, embora a complexidade requerida por um protocolo baseado nesta nova caracterização minimal continuasse indicando ser quadrática. A terceira contribuição desta tese é a proposta de um pequeno relaxamento na caracterização minimal que propicia a implementação de um protocolo com complexidade linear e desempenho semelhante à solução quadrática. Como última contribuição, através de um estudo detalhado das variações da informação de controle durante o progresso de urna computação, propomos um protocolo que implementa exatamente a caracterização minimal, mas com complexidade linear / Abstract: A checkpoint is a state selected by a process during its execution. A global checkpoint is composed of one checkpoint from each process and it is consistent if it represents a snapshot of the computation that could have been taken by an external observer. The solution to many problems in distributed systems requires a sequence of consistent global checkpoints that describes the progress of a distributed computation. As the first contribution of this thesis, we present a set of algorithms to the construction of these sequences, called progressive views. Additionally, the analysis of properties during the progress of a distributed computation allowed us to verify that some assumptions made in the literature were false. Some checkpoint patterns present only on-line trackable rollback-dependencies among checkpoints. This property is enforced by taking a checkpoint immediately before the formation of a message pattern that can produce a non-trackable rollback-dependency. Theoretical and simulation studies have shown that, most often, the more restricted the pattern, the more efficient the protocol. The minimal characterization was supposed to be known and its implementation was supposed to require the processes of the computation to maintain and propagate O(n2) control information, where n is the number of processes in the computation. The quadratic complexity makes the protocol based on the minimal characterization less interesting than protocols based on wider characterizations, but with a linear complexity. The second contribution of this thesis is a proof that the characterization that was supposed to be minimal could be reduced. However, the complexity required by a protocol based on the new minimal characterization seemed to be also quadratic. The third contribution of this thesis is a protocol based on a slightly weaker condition than the minimal characterization, but with linear complexity and performance similar to the quadratic solution. As the last contribution, through a detailed analysis of the control information computed and transmitted during the progress of distributed computations, we have proposed a protocol that implements exactly the minimal characterization, but with a linear complexity / Doutorado / Doutor em Ciência da Computação
|
28 |
Estudo comparativo de algoritmos para checkpointingVieira, Gustavo Maciel Dias 18 December 2001 (has links)
Orientador : Luiz Eduardo Buzato / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-01T02:33:00Z (GMT). No. of bitstreams: 1
Vieira_GustavoMacielDias_M.pdf: 3096254 bytes, checksum: 30b7155e50de3e9afd753dd40520b771 (MD5)
Previous issue date: 2001 / Resumo: Esta dissertação fornece um estudo comparativo abrangente de algoritmos quase-síncronos para checkpointing. Para tanto, utilizamos a simulação de sistemas distribuídos que nos oferece liberdade para construirmos modelos de sistemas com grande facilidade. O estudo comparativo avaliou pela primeira vez de forma uniforme o impacto sobre o desempenho dos algoritmos de fatores como a escala do sistema, a freqüência de check points básicos e a diferença na velocidade dos processos da aplicação. Com base nestes dados obtivemos um profundo conhecimento sobre o comportamento destes algoritmos e produzimos um valioso referencial para projetistas de sistemas em busca de algoritmos para check pointing para as suas aplicações distribuídas / Abstract: This dissertation provides a comprehensive comparative study ofthe performance of quase synchronous check pointing algorithms. To do so we used the simulation of distributed systems, which provides freedom to build system models easily. The comparative study assessed for the first time in an uniform environment the impact of the algorithms' performance with respect to factors such as the system's scale, the basic checkpoint rate and the relative processes' speed. By analyzing these data we acquired a deep understanding of the behavior of these algorithms and were able to produce a valuable reference to system architects looking for check pointing algorithms for their distributed applications / Mestrado / Mestre em Ciência da Computação
|
29 |
DisCusS : desenvolvendo um serviço de concenso generico, simples e modularCamargos, Lásaro Jonas 29 August 2003 (has links)
Orientador: Edmundo Roberto Mauro Madeira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T18:00:42Z (GMT). No. of bitstreams: 1
Camargos_LasaroJonas_M.pdf: 3140522 bytes, checksum: 05a0621c657843119225cda44fec1186 (MD5)
Previous issue date: 2003 / Resumo: Esta dissertação trata do processo de engenharia de um serviço de detecção de falhas compatível com FT-CORBA, a especm.cação para tolerância a falhas em CORBA, e de um serviço de consenso distribuído. Os serviços são independentes e fornecem diferentes propriedades para a aplicação cliente, dependendo dos módulos, com implementaçães de algoritmos diferentes, selecionados para uma instanciação destes serviços. A arquitetura dos serviços é tal que a aplicação cliente não toma conhecimento dos algoritmos de detecção e consenso sendo executados, acessando-os por uma interface genérica. Com o intuito de facilitar a escolha dos módulos dos serviços, apresentamos um pequeno estudo comparativo da influência de detectores de falhas adaptativos, aqueles que se adaptam para prover melhor qualidade de serviço na detecção, e não adaptativos sobre o desempenho dos algoritmos de consenso distribuído / Abstract: This thesis is on the process of development of a distributed consensus service and its fault detection service, being the last one, compliant with FT -CORBA, the Fault Tolerant CORBA specification. These services are independent and, depending on the selected modules, offer different properties to client applications. The presented architecture is defined in such a way that client applications do not know which algorithms are running, both for detection and for consensus, just accessing them through a generic interface. To make easier the task of selecting modules in the services, we also present a comparative study of the influence of adaptive and non-adaptive failure detectors over the execution of consensus algorithms / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
|
30 |
Coleta de lixo para protocolos de checkpointingSchmidt, Rodrigo Malta 03 August 2018 (has links)
Orientadores : Luiz Eduardo Buzato, Islene Calciolari Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T19:18:25Z (GMT). No. of bitstreams: 1
Schmidt_RodrigoMalta_M.pdf: 745421 bytes, checksum: c32cef5e0a61fe3580cc8a211902f9fd (MD5)
Previous issue date: 2003 / Mestrado
|
Page generated in 0.0563 seconds