• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 444
  • 10
  • 10
  • 10
  • 10
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 462
  • 430
  • 235
  • 188
  • 144
  • 124
  • 117
  • 79
  • 77
  • 61
  • 60
  • 52
  • 52
  • 51
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Pyxis : um sistema de arquivos distribuido

Fröhlich, Antonio Augusto Medeiros January 1994 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T18:59:30Z (GMT). No. of bitstreams: 1 96196.pdf: 2164331 bytes, checksum: a9e21f6cb62f5689f995adb5c201d04b (MD5) Previous issue date: 1994 / Este texto apresenta o PYXIS, um sistema de arquivos distribuído portável com alto grau de paralelismo interno, desenhado para ser flexível no que diz respeito ao ambiente sobre o qual seus componentes são distribuídos, possibilitando sua execução em multicomputadores ou em redes de computadores. O projeto foi desenvolvido no Curso de Pós-Graduação em Ciências da Computação da Universidade Federal de Santa Catarina (CPGCC/UFSC) e deverá integrar um projeto coletivo das universidades federais de Santa Catarina (UFSC), do Rio Grande do Sul (UFRGS) e de Santa Maria (UFSM), que visa desenvolver um multicomputador e um ambiente para programação paralela sobre ele.
32

Estudo e implementação de um sistema de banco de dados distribuido

Eller, Nery Artur January 1997 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T21:33:12Z (GMT). No. of bitstreams: 1 107003.pdf: 2729458 bytes, checksum: bbb91cbdf4a3d7ab6e1f9d894fa2fa64 (MD5) Previous issue date: 1997 / Neste trabalho apresenta-se o desenvolvimento e implementação de um sistema de informação baseado em um Banco de Dados Distribuído. No desenvolvimento do sistema utilizou-se técnicas da Engenharia da Informação e métodos de distribuição de dados para realizar o levantamento dos dados e processos e também os projetos lógico e físico. A implementação do sistema foi baseada no Sistema de Gerência de Banco de Dados Distribuído Oracle e em uma grande variedade de outros recursos computacionais da Celesc - Centrais Elétricas de Santa Catarina S.A, empresa usuária do sistema desenvolvido. No desenvolvimento do sistema deu-se ênfase às técnicas de replicação dos dados e do mecanismo de manutenção da integridade do Banco de Dados Distribuído em operações de atualizações globais, visando a garantia da consistência dos dados. Tirando proveito da experiência adquirida na implementação desse sistema, realizou-se também neste trabalho uma análise comparativa dos principais requisitos ideais de Banco de Dados Distribuídos existentes na literatura com o sistema implementado. Outrossim, um importante aspecto prático deste trabalho foi o domínio de modernas tecnologias para desenvolvimento de sistemas de informação distribuídos para dotar e repassar a Celesc uma nova metodologia de desenvolvimento de sistemas, atendendo com isto necessidades emergentes da empresa nesta área.
33

Simulação do escoamento em poços horizontais com completação não convencional

Sansoni Júnior, Umberto January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-02-16T03:02:04Z (GMT). No. of bitstreams: 1 337633.pdf: 5685261 bytes, checksum: e300a388ae3ff5af57d696a21728f521 (MD5) Previous issue date: 2015 / Este trabalho propõe uma metodologia numérica para a simulação computacional do escoamento em poços horizontais equipados com completação não convencional, utilizando uma abordagem distribuída para resolver o escoamento no interior do poço, no anular, através da completação e entre o reservatório e o poço.O nível de detalhes nas simulações de um poço horizontal aumenta devido à complexidade das completações e a principal vantagem da abordagem distribuída é, sem dúvida, prover um método capaz de modelar o fluxo de óleo e gás nestas completações. Estes esquemas seriam inviáveis de se modelar com os simuladores convencionais de acoplamento poço-reservatório, que discretizam a geometria através de malhas, onde se trata o poço como um simples conjunto de pontos de injeção ou de surgência no reservatório, conectando-o através de um modelo de poço. A presente pesquisa insere-se na estratégica linha de desenvolvimento de metodologias novas para tratamento de problemas de acoplamento poço-reservatório, com um muito maior detalhamento do escoamento no poço e suas completações, podendo ser verificado e quantificado o escoamento de ambas as fases ao longo do anular e do liner para diversos tipos de completação, acrescentando mais física nestas simulações. A metodologia aqui desenvolvida mostrou-se ser extremamente eficaz, de baixo custo computacional, e que oferece boas respostas para auxiliar o engenheiro de poço na tomada de decisões a respeito de que tipo de poço e completação atende melhor a um determinado cenário e pode ser usado tanto para projetar completações, quanto para predizer problemas em poços completados. Ao comparar os resultados obtidos com os dos modelos usualmente empregados na simulação do acoplamento poço-reservatório que resolvem com precisão as equações diferenciais, o sistema distribuído proposto mostrou-se com muito boa concordância e com tempos computacionais muito baixos.<br> / Abstract : This thesis proposes a numerical methodology for the computational simulation of flow in horizontal wells with unconventional completions, using a distributed approach to solve the flow inside the well, in the annulus, along the well completion and in the interface between the reservoir and the well. The level of complexity of simulations of a horizontal well is relatively higher due to the conformation of the well completion. Therefore, the main advantage of using the distributed approach is, undoubtedly, to provide a method to model the flow of oil and gas in these completions. Such flows would be infeasible to be modelled with conventional reservoir simulators, which use discrete geometry through meshes where the well is considered as a simple set of injection points or upwelling in the reservoir, connecting it through a well flow model. This study is part of the strategy for development of new methods to solve well-reservoir coupling problems with much more detail on the flow along well completions. The multiphase flow along the liner and annulus for different types of completions can be checked and quantified with a physical approach. The methodology developed in this work proved to be extremely effective, with low computational cost, offering a useful tool to assist the well engineer in making decisions as to the best well architecture for a particular scenario. It also can be used, both, to design and to predict problems in well completions. By comparing the results obtained with the models usually employed in well-reservoir coupling simulation, which accurately solve the differential equations, the distributed system proposed in this work shows a very good agreement with very low computational time.
34

Respostas dinâmicas em sistemas distribuídos e decomposição forçada da superfície livre para um modelo acoplado Oceano-Atmosfera

Garibotti, Cristiano Rodrigues January 2003 (has links)
O objetivo deste trabalho é a introdução e desenvolvimento de uma metodologia analítico-simbólica para a obtenção de respostas dinâmicas e forçadas (soluções homogêneas e não homogêneas) de sistemas distribuídos, em domínios ilimitados e limitados, através do uso da base dinâmica gerada a partir da resposta impulso. Em domínios limitados, a resposta impulso foi formulada pelo método espectral. Foram considerados sistemas com condições de contorno homogêneas e não homogêneas. Para sistemas de natureza estável, a resposta forçada é decomposta na soma de uma resposta particular e de uma resposta livre induzida pelos valores iniciais da resposta particular. As respostas particulares, para entradas oscilatórias no tempo, foram calculadas com o uso da fun»c~ao de Green espacial. A teoria é desenvolvida de maneira geral permitindo que diferentes sis- temas evolutivos de ordem arbitrária possam ser tratados sistematicamente de uma forma compacta e simples. Realizou-se simulações simbólicas para a obtenção de respostas dinâmicas e respostas for»cadas com equações do tipo parabólico e hiperbólico em 1D,2D e 3D. O cálculo das respostas forçadas foi realizado com a determinação das respostas livres transientes em termos dos valores iniciais das respostas permanentes. Foi simulada a decomposição da resposta forçada da superfície livre de um modelo acoplado oceano-atmosfera bidimensional, através da resolução de uma equação de Klein-Gordon 2D com termo não-homogêneo de natureza dinâmica, devido a tensão de cisalhamento na superfície do oceano pela ação do vento. / The objective of this work is the introduction and the development of an analytical-symbolic methodology for obtaining dynamic and forced responses of distributed systems, in unlimited and limited domains, through the use of the dynamic basis generated by the impulse response. In limited domains, the impulse response was formulated with the spec- tral method. Systems were considered with homogeneous and nonhomogeneous boundary conditions. For systems of stable nature, the forced response is decomposed into the sum of a particular response and a free response that is induced by the initial values of the particular response. The particular responses, for oscillatory time inputs, were calculated with the use of the spatial Green's function. The theory is developed in a general way that allows that di®erent arbitrary order evolution systems can be systematically treated in a compact and simple way. Symbolic simulations ware performed for obtaining dynamics responses and forced responses with equations of parabolic and hyperbolic type in 1D,2D and 3D. The calculation of the forced responses were accomplished with the determina- tion of the transient free responses in terms of the initial values of the permanent responses. It was simulated the decomposition of the forced response of the free surface of a two-dimensional coupled model ocean-atmosphere, through the inte- gration of a 2D Klein-Gordon equation with a nonhomogeneous terms of dynamic nature, due to the shear stress in the surface of the ocean by the action of the wind.
35

Um estudo empírico sobre o impacto da confiança no desempenho de projetos distribuídos de desenvolvimento de software

Gomes, Vanessa Marcos January 2013 (has links)
Made available in DSpace on 2013-11-12T11:38:26Z (GMT). No. of bitstreams: 1 000452041-Texto+Completo-0.pdf: 3003459 bytes, checksum: 392fbbb1a16b730a0deefb64d869d303 (MD5) Previous issue date: 2013 / Trust is often defined as the belief that a person will meet the positive expectations of another. The importance of trust in distributed software development has been recognized by researchers. Although several studies have discussed the subject, little is known about the impact of trust (or lack thereof) in the distributed software development project performance. In this sense, an empirical study was conducted in order to identify factors that influence trust in projects and what are the impacts of these factors on project performance indicators. This research was developed using both secondary (systematic literature review) and primary (field study and survey) research methods. The results indicate that availability, competence, experience, face-to-face communication and leadership are among the factors that positively influence performance metrics in software development projects. As a way of presenting the results of this research, we developed a preliminary theoretical model of the impact of trust in the distributed software development project performance. This model can be used by researchers as a framework to investigate the subject and by professionals to better manage and organize their distributed teams. / A confiança é muitas vezes definida como a crença de que uma pessoa irá satisfazer as expectativas positivas de outra. A importância da confiança em projetos de desenvolvimento distribuído de software tem sido reconhecida pelos pesquisadores. Embora vários estudos tenham discutido o tema, muito pouco se sabe sobre o impacto da confiança (ou falta dela) no desempenho dos projetos de desenvolvimento distribuído de software. Neste sentido, uma pesquisa empírica foi realizada com o intuito de identificar os fatores que influenciam a confiança nos projetos e quais são os impactos desses fatores sobre indicadores de desempenho do projeto. Para o desenvolvimento desta pesquisa utilizou-se métodos secundários (revisão sistemática da literatura) e primários (estudo de campo e survey) de pesquisa. Os resultados encontrados indicam que disponibilidade, competência, experiência, face-a-face, comunicação, liderança, estão entre os fatores de confiança considerados que influenciam positivamente as métricas de desempenho em projetos de desenvolvimento de software. Como forma de apresentar os resultados desta pesquisa, desenvolveu-se um modelo teórico preliminar sobre o impacto da confiança no desempenho dos projetos de desenvolvimento distribuído de software. Tal modelo pode ser utilizado por pesquisadores como um quadro de referência para investigar o assunto e por profissionais para melhor gerenciar e organizar suas equipes distribuídas.
36

Sistematização das evidências empíricas em desenvolvimento distribuído de software

Techio, Antônio Rafael da Rosa January 2014 (has links)
Made available in DSpace on 2014-10-25T01:01:28Z (GMT). No. of bitstreams: 1 000462229-Texto+Completo-0.pdf: 2509812 bytes, checksum: eb9cb98f480c81a2e0133205abf0d60e (MD5) Previous issue date: 2014 / Distributed Software Development (DSD) is a recent area and has been growing over the last few years. As a result, a quite number of research and industrial studies have been published. However, due to the large number of terms involved in this scenario, a concept is often used wrongly, making the process of searching for empirical evidence a complex task. The DSD scenarios are diverse and what works in one context might not directly apply in another. Thus it is necessary to understand how DSD related empirical findings should be reported to be useful for practitioners and researchers. Empirical research in DSD could be refined if there was a systematic way to identify the different dimensions and characteristics for which empirical evidence applies. For this reason, the goal of this dissertation is to identify the type of context information that is relevant to researchers and practitioners in studies with empirical evidence and propose a way to systematize the empirical evidence in DSD, in order to contribute, among other things, to the future development of research in the area. For the development of this research we have used both secondary (systematic mapping study) and primary (expert opinion survey) research methods. The main contribution of this research is the taxonomy to systematize the empirical evidences generated from scientific research conducted in the DSD area. / O Desenvolvimento Distribuído de Software (DDS) é recente como área de pesquisa e vem crescendo ao longo dos últimos anos. Como resultado, um grande número de pesquisas e estudos na indústria foi publicado. No entanto, devido a grande quantidade de termos envolvidos nesse cenário, muitas vezes um conceito é utilizado de forma equivocada, tornando o processo de busca por evidências empíricas uma tarefa complexa. Os cenários de DDS são diversos e o que se aplica em um contexto talvez não se aplique diretamente em outro. Dessa forma é necessário entender como os resultados empíricos em DDS podem ser relatados para ser útil para profissionais e pesquisadores desta área. A pesquisa empírica na área de DDS poderia ser refinada se houvesse uma maneira sistemática para identificar as diferentes dimensões e características para o qual se aplica a evidência empírica. Por esta razão, o objetivo desta dissertação de mestrado é identificar que tipo de informação de contexto é relevante, para pesquisadores e profissionais da indústria, em estudos com evidências empíricas e propor uma forma de sistematização das evidências empíricas em DDS, visando contribuir, entre outras coisas, com o desenvolvimento de novas pesquisas nesta área. Para o desenvolvimento desta pesquisa utilizou-se métodos secundários (revisão sistemática da literatura, do tipo mapeamento sistemático) e primários (survey com especialistas) de pesquisa. Este estudo contribui no sentido de propor uma taxonomia para sistematizar as evidências empíricas geradas a partir das pesquisas científicas conduzidas na área de DDS.
37

2DAM-WAVE: um método de avaliação para o modelo de capacidade wave

Glanzner, Rafael Audy January 2012 (has links)
Made available in DSpace on 2015-02-07T01:01:09Z (GMT). No. of bitstreams: 1 000465121-Texto+Completo-0.pdf: 3570825 bytes, checksum: 6b189527af0bba987cbc5465ab965a18 (MD5) Previous issue date: 2012 / The Global Software Development (GSD), has been used by various companies around the world. To help these companies overcome the difficulties imposed by this type of work, the WAVE capability model was proposed. However, until the conclusion of this research, it was not possible to use the WAVE effectively in the industry, since there was none assessment method for it. This research proposes an assessment method for the WAVE capability model, and it is called 2DAM-WAVE. It allows organizations that wish to implement the best practices of WAVE, find out in which capability level they are situated. To propose this method a qualitative analysis of the existent assessment methods was made, after this, the assessment method was applied in a Brazilian unit of a global organization and on an Indian unit from another organization, by conducting of two case studies. As a result of this research an assessment method for the WAVE, entitled 2DAM-WAVE, and a support tool that helps and facilitates this assessment were developed. / O Desenvolvimento Distribuído de Software (DDS), em nível global, vem sendo utilizado por diversas empresas ao redor do mundo. Para auxiliar essas empresas a superar as dificuldades impostas por esse tipo de trabalho, o modelo de capacidade WAVE foi proposto. No entanto, até a conclusão dessa pesquisa, não era possível utilizar o WAVE efetivamente na indústria, visto que ele não possuía um método de avaliação. Essa pesquisa propõe um método de avaliação para o WAVE, chamado de 2DAM-WAVE, possibilitando que as organizações, que desejam implementar as boas práticas do WAVE, descubram em que nível de capacidade se encontram. Para propor esse método foi realizada uma análise qualitativa de métodos de avaliação existentes, após isto, o resultado foi aplicado em uma unidade brasileira de uma organização global e em uma unidade indiana de outra organização global, através de dois estudos de caso. Com o resultado dessa pesquisa um método de avaliação para o WAVE, intitulado 2DAM-WAVE, e uma ferramenta de apoio para conduzir e facilitar esse processo foram desenvolvidos.
38

JFAULT: tolerância a falhas transparente utilizando reflexão e compilação dinâmica no modelo de meta-níveis

Scherer, Marcio Gustavo Gusmão January 2015 (has links)
Made available in DSpace on 2015-05-05T02:01:38Z (GMT). No. of bitstreams: 1 000467903-Texto+Completo-0.pdf: 2071415 bytes, checksum: 7b9c07b7d2604d46d4b4ea8d6c7bbfac (MD5) Previous issue date: 2015 / Fault tolerance has become an important mean to achieve high availability in computational systems. However, building fault tolerant architectures is not a trivial task. Reflection in Meta-level architectures has been used for years as a mean for implementation of nonfunctional requirements. In this way it is possible to have a clear separation of its implementation from the implementation of the business logic itself (functional requirements) in layers or levels. These levels have become known, respectively, as base-level and metalevel and are regularly used in nowadays systems’ architecture since they bring several benefits such as increased reuse and reduced complexity, furthermore, they provide better responsibilities separation among systems’ components. On the other hand, if the meta-level is a useful architecture artifice there is still the need to build the meta-level components that intend to handle fault tolerance in application’s services, the components need to be implemented and integrated to the system’s architecture, which involves some development effort and complexity. This work presents a proposal to build, automatically and in runtime, the meta-level components for fault tolerance handling in application’s services. More precisely, it intends to propose a framework – named JFault – which using reflection and dynamic compilation will leverage those requirements transparently and with minor changes in the system. The framework is implemented in Java, language that supports both reflection and dynamic compilation, but could be built in any programming language that supports such APIs. / Tolerância a falhas tornou-se um importante meio para se garantir alta disponibilidade de sistemas computacionais. No entanto, a construção de arquiteturas tolerantes a falhas não é uma tarefa trivial. Reflexão em arquiteturas de meta-nível tem sido usada há anos como um meio para implementação de requisitos não-funcionais. Dessa forma é possível ter uma separação clara e em níveis entre a implementação da lógica de negócios do sistema (requisitos funcionais) e as relacionadas ao uso da aplicação em termos de desempenho, usabilidade, segurança, disponibilidade, etc (não funcionais). Estes níveis se tornaram conhecidos na literatura, respectivamente, como nível-base e meta-nível e são frequentemente utilizados em sistemas hoje em dia visto que trazem vários benefícios como aumento de reuso de código e redução de acoplamento entre os elementos da arquitetura, além de trazer uma melhor divisão de responsabilidades entre os componentes do sistema. Por outro lado, se as arquiteturas de meta-nível se tornaram um artifício útil, existe a necessidade de se implementar os componentes de meta-nível responsáveis pela criação de serviços tolerantes a falhas, o que envolve esforço de desenvolvimento, adaptações no sistema e geralmente adiciona certa complexidade à arquitetura. Este trabalho apresenta uma proposta de construir, de forma automática e em tempo de execução, os componentes de meta-nível para tolerância a falhas em serviços de aplicações. Mais precisamente, pretende propor um framework – chamado JFault - que usando reflexão e compilação dinâmica se propõe a preencher esse requisito de forma transparente e com pequenas alterações no sistema. O framework é implementado em Java, linguagem que suporta tanto reflexão como compilação dinâmica, mas poderia ser construído em qualquer linguagem de programação que suporta tais APIs.
39

Alocação de tarefas paralelas comunicantes em ambientes distribuídos heterogêneos

Santana, Marcelo Nardelli Pinto January 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2006. / Submitted by samara castro (sammy_roberta7@hotmail.com) on 2009-11-04T15:46:48Z No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2009-11-15T19:38:34Z (GMT) No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) / Made available in DSpace on 2009-11-15T19:38:34Z (GMT). No. of bitstreams: 1 2006_Marcelo Nardelli Pinto Santana.pdf: 1928461 bytes, checksum: e393ea85d58701c1e89e8ed754ce0caf (MD5) Previous issue date: 2006 / Sistemas distribuídos têm sido cada vez mais utilizados na resolução de problemas que demandam grande quantidade de tempo de processamento, por permitirem a utilização simultânea de vários recursos computacionais. Diversas máquinas com arquiteturas distribuídas foram propostas ao longo dos anos. Entre essas arquiteturas, estão os clusters de computadores, que são sistemas distribuídos formados por estações de trabalho interligadas e que podem atingir um bom desempenho a um custo relativamente baixo. Entretanto, para que a utilização de tais sistemas seja proveitosa, é necessário que a utilização dos recursos disponíveis seja feita de maneira a permitir a otimização de algum critério. A alocação de tarefas em um sistema distribuído visa determinar como serão utilizados os processadores do sistema de modo a otimizar um critério, que grande parte das vezes é o tempo de execução de uma aplicação. Diversas abordagens já foram propostas para o problema de alocação de tarefas, que é um problema NP-Completo, incluindo algoritmos heurísticos e estratégias específicas para determinadas aplicações. Uma aplicação para qual existem diversas implementações em sistemas distribuídos é a comparação de seqüências biológicas, uma operação básica da biologia computacional que visa determinar o grau de similaridade entre seqüências. Os algoritmos ótimos existentes possuem complexidade de tempo e espaço de O(n2), sendo baseados na técnica de programação dinâmica e apresentando dependências de dados do tipo wavefront. O alto custo desses algoritmos justifica a utilização de sistemas distribuídos na resolução do problema, sendo que a maioria das implementações distribuídas busca utilizar todos os processadores disponíveis no sistema distribuído, de modo a minimizar a tempo de execução. A presente dissertação propõe um framework de alocação de tarefas de aplicações de comparação de seqüências biológicas baseadas em programação dinâmica, além de quatro estratégias de alocação de tarefas. O framework e as estratégias de alocação foram implementados em um cluster de 10 máquinas. Os resultados mostram que, para seqüências relativamente pequenas, a utilização de todos os processadores disponíveis não é a opção mais vantajosa. Por isso mesmo, a utilização de políticas de alocação que levem em consideração o tamanho das seqüências e as características das máquinas disponíveis pode permitir a redução no tempo de execução da aplicação. ____________________________________________________________________________________________ ABSTRACT / Distributed systems have been widely used in the resolution of problems that demand a large amount of processing time, because they allow the simultaneous utilization of many computational resources. Many machines with a distributed architecture have been proposed during the years. Among these are computer clusters, which are distributed systems composed of interconnected workstations and that may achieve a good performance at a relatively low cost. However, in order to take advantage of distributed systems, the available resources must be used in such a way that some criteria can be optimized. Task allocation in distributed systems aims at determine how the processors available in the system are going to be used, so that a criteria, which in many cases is the execution time of an application, is optimized. Many approaches have been proposed to the task allocation problem, which is NP-Complete, including heuristic algorithms and application specific strategies. There are many proposed distributed implementations of the biological sequence comparison application, which is a basic operation in computational biology that determines the similarity degree between sequences. The optimal algorithms available have time and space complexities in O(n2) , are based in the dynamic programming technique and present data dependencies that follow the wavefront pattern. The high costs of these algorithms justifies the utilization of distributed systems. Most of the known distributed implementations try to use all available processors in the system, so that the execution time can be minimized. The present document proposes a framework for task allocation for biological sequence comparison applications based on dynamic programming, as well as four task allocation strategies. The framework and the strategies have been implemented in a 10 machine cluster. The results show that, when the sequences are relatively small, using all available processors is not the best decision. For this reason, the utilization of task allocation policies that take into account the sequences size and the machines characteristics may cause the execution time of the application to be reduced.
40

Proposta de modelo para cálculo de disponibilidade em redes IP baseado na decomposição de espaço de estados

Corrêa, Maximira Carlota 08 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Luana Patrícia de Oliveira Porto (luana_porto_23@hotmail.com) on 2010-03-11T17:16:29Z No. of bitstreams: 1 2008_MaximiraCarlotaCorrea.pdf: 1987262 bytes, checksum: 74c24d8124f981e6b103a304b3a8a60e (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-06T20:27:38Z (GMT) No. of bitstreams: 1 2008_MaximiraCarlotaCorrea.pdf: 1987262 bytes, checksum: 74c24d8124f981e6b103a304b3a8a60e (MD5) / Made available in DSpace on 2010-04-06T20:27:38Z (GMT). No. of bitstreams: 1 2008_MaximiraCarlotaCorrea.pdf: 1987262 bytes, checksum: 74c24d8124f981e6b103a304b3a8a60e (MD5) Previous issue date: 2008-08 / Nos últimos anos observou-se um aumento considerável no uso de redes de comunicação de dados. Quanto mais pessoas fazem uso das redes de computadores e quanto maior o número de serviços que estão sendo prestados nestas redes, mais é necessário garantir que a rede esteja disponível para o uso de seus clientes. Este trabalho visa propor um método para avaliação e cálculo da disponibilidade em redes IP, de forma que as prestadoras de serviço de comunicação de dados disponham de uma ferramenta segura de análise da variação da disponibilidade da rede quando a mesma sofre alterações e/ou falhas. Este trabalho foi dedicado às redes IP e seu foco será o calculo da disponibilidade entre dois pontos A e B quaisquer.A revisão bibliográfica, além de contextualizar o assunto de redes de computadores, irá focar na teoria da decomposição de espaço de estados. Depois será descrito o algoritmo proposto e sua implementação em linguagem Perl. Então serão apresentados os testes realizados nos trechos selecionados das redes em estudo.Na conclusão deste trabalho foi validado o método proposto para o cálculo de disponibilidade em redes IP. __________________________________________________________________________________________ ABSTRACT / In recent years there was a considerable growth in computer networks applications. The more people use computer networks and the greatest the number of services these networks provide the greatest the necessity to make sure the network is available for its clients to use. This work comes to provide the means to evaluate e calculate the availability of IP networks in order to offer the communication service provides a secure tool for the analysis of the network availability variation when the network is altered or fail. This work will be dedicated to the analysis of IP networks and its scope is the evaluation of the availability between two given points A and B. The bibliography review will contextualize the matter of computer networks, with focus in the Theory of State Space Decomposition. Then the algorithm will be described with its implementation in Perl programming language. Last, the tests performed in selected parts of the network will be presented. At the conclusion of this work the provided method for availability calculus in IP networks is valid was considered valid.

Page generated in 0.0591 seconds