• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 12
  • 11
  • 11
  • 11
  • 7
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • Tagged with
  • 81
  • 81
  • 28
  • 22
  • 21
  • 20
  • 17
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Um sistema de backup cooperativo tolerante a intrusões / Sergio Raymundo Loest ; orientador, Carlos Alberto Maziero ; co-orientador, Lau Cheuk Lung

Loest, Sergio Raymundo January 2009 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, 2003 / Bibliografia: p. 63-68 / O armazenamento confiável de grandes volumes de dados sempre foi um problema para as corporações. Eficiência, disponibilidade, integridade e confidencialidade dos dados são algumas das características que um sistema de backup deve oferecer. Ao mesmo tempo / Reliable storage of large amounts of data was always a problem for the enterprise world. Availability, effciency, data integrity, and confidentiality are some of the desirable features a data backup system should provide. At the same time, corporate compu
42

Repositório web para compartilhamento, reuso, versionamento e evolução de conteúdos binários : modelagem e análise por Redes de Petri coloridas / Web repository for sharing, reuse, versioning and evolution of binary content: modeling and analysis of colored Petri Nets

Furtado Júnior, Corneli Gomes 12 1900 (has links)
FURTADO JÚNIOR, C. G. Repositório web para compartilhamento, reuso, versionamento e evolução de conteúdos binários : modelagem e análise por Redes de Petri coloridas. 2011. 149 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2011. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2012-01-24T18:59:46Z No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-01-24T19:00:13Z (GMT) No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) / Made available in DSpace on 2012-01-24T19:00:13Z (GMT). No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) Previous issue date: 2011-12 / The free availability of digital content has fairly increased on the Web. Many of these contents can be modified, reused and adapted for specific purposes. Although diferent resources for providing and storing contents are widely available, there is a lack of tools suitable to versioning control of binary content on the Internet. In addition, most solutions to persistent data on the Web are based on Relational DataBase (RDB). As a simple solution, we can modify the original data and store new records in the tables of a database. However, this leads to a possible ineficiency due to a potentially large amount of redundant information. Nevertheless, in order to overcome this issue, it is possible to adapt versioning tools, also known as Control Version System (CVS), to the solution. These tools are specialized in storage of the modified regions of documents. This process is known as "deltification". However, regarding access time and gathering data, a CVS is less eficient than a DataBase Management System (DBMS). Therefore, if a CVS is used as a solution for data persistence, this can reduce the overall performance of the application. Aiming at designing a repository of versioned binary content on the Web, with eficient management for both accessing and storing binary data, this work analyzes the performance of free DBMSs most frequently used and a CVS, which we consider being the most suitable to the addressed repository. The attained results were the basis for the specification of thearchitecture of a repository that relies on a hybrid approach. The resulting approach lies in the simultaneous use of a DBMS and a CVS. We took into account features and runtime performance of both tools for each operation required in the final application. Then, we designed models on colored Petri Nets, which allowed the simulation and analysis of the aimed architecture. As a result, we present the e ciency of the proposed architecture against a traditional storage approach. / A livre disponibilização de conteúdos digitais vem crescendo de maneira expressiva na Web. Muitos desses conteúdos podem ser modificados, reutilizados e adaptados para propósitos específicos. Embora muitos recursos para armazenamento e disponibilização de conteúdos sejam bastante difundidos, não se percebem na Internet repositórios que possuam instrumentos apropriados para o controle de versões de conteúdo binário (CB). A maioria das soluções encontradas para a persistência de dados na Web é baseada em Bancos de Dados Relacionais (BDR). A simples adição de modificações aos dados originais e armazenamento em novos registros de tabelas em um BD pode ser ineficiente devido a uma quantidade potencialmente grande de informações redundantes. É possível, para este fim, adaptar ferramentas de versionamento conhecidas por Sistemas de Controle de Versão (SCV), ferramentas especializadas no armazenamento de regiões modificadas de documentos. Entretanto, um SCV é menos eficiente do que os Sistemas Gerenciadores de Bancos de Dados (SGBD) em tempo de acesso e recuperação de informaações, o que pode comprometer o desempenho da aplicação, caso seja adotado como solução para a persistência de dados. Visando conceber um repositório de CBs versionados na Web, com gestão eficiente tanto para o acesso como para o armazenamento de CBs, neste trabalho é analisado o desempenho dos SGBDs gratuitos mais utilizados na atualidade e de um SVC que se revelou o mais adequado ao escopo deste trabalho. Os resultados obtidos serviram de base para a especificação da arquitetura de um repositório que se apoia em uma abordagem híbrida, com o uso simultâneo de um SGBD e um SVC. Em seguida, foi realizada a modelagem por Redes de Petri coloridas, o que permitiu a simulação e a análise da arquitetura concebida, demonstrando-se a maior eficiência da arquitetura proposta em relação a uma abordagem de armazenamento tradicional.
43

MobSEC

Souza, Luciana Moreira Sá de January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2013-07-15T22:58:35Z (GMT). No. of bitstreams: 1 220694.pdf: 5762529 bytes, checksum: 347f45c5a581489ced8357ce61143bba (MD5)
44

Aplicação de data webhousing para monitoramento de acessos a sites Web de grupos de pesquisa e desenvolvimento

Barbosa, Daniel Martins January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T04:42:47Z (GMT). No. of bitstreams: 1 226256.pdf: 2850037 bytes, checksum: f1e24c498f4f820ab05a758f6241efd3 (MD5) / O presente Trabalho tem como objetivo utilizar as técnicas de Data Warehouse para extrair informações, bem como propor um Data Mart para monitorar sites de Grupos de Pesquisa e Desenvolvimento. Nesse sentido, ao marcarem presença na Web, as organizações e os grupos de pesquisa estão abrindo um canal extremamente poderoso para a criação e o desenvolvimento de relações com seus usuários. Assim, é necessário que essas organizações incorporem ferramentas para monitorar seus usuários e suas ações, visando atender à necessidade de conhecer o comportamento dos seus usuários. Como resultado desse novo contexto surge o compromisso de criação de uma nova metodologia que priorize o tratamento de informações, tanto estruturadas, quanto não estruturadas. Este trabalho apresenta o desenvolvimento e a aplicação das técnicas de Data Webhouse que visa fornecer subsídios à coleta e análise de dados para site de grupo de P&D. Levando-se em consideração esse cenário, será apresentada uma metodologia que permite as especificações de variáveis de um processo de personalização, por ser uma aplicação que auxilia na estruturação de sites de grupos de P&D. Dessa forma, conclui-se que a utilização dessa metodologia possibilitará uma reestruturação nos sites e apresentar uma contribuição em que se destaca um modelo geral de site para Grupos de P&D
45

Gerenciamento e uso da informação aplicada na área de Segurança Pública do Estado de Santa Catarina

Barros, José Arilton Antunes January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-21T23:58:48Z (GMT). No. of bitstreams: 1 223657.pdf: 545657 bytes, checksum: 845214cf8c64944a57c2f2b9c0a735b8 (MD5) / Este estudo teve por objetivo verificar se, a partir das percepções dos empregados do Centro de Informática e Automação do Estado de Santa Catarina S/A - Ciasc, às decisões estratégicas adotadas pelos seus dirigentes, nos últimos anos, contribuíram ou não para a satisfação do cliente e aumento da competitividade organizacional. Para isso, a pesquisa em pauta caracteriza-se como, descritiva e avaliativa. A perspectiva da pesquisa constitui categorias de análise e foram investigadas ao longo dos últimos cinco anos. O modo de investigação é o estudo de caso. Os dados foram coletados por meio de entrevistas não estruturadas, aplicação de formulários, análise documental, observação livre e participante. O tratamento dos dados é predominantemente qualitativo. Para análise do fenômeno, objeto da pesquisa, definiu-se a decisão estratégica como variável independente (causa) e a percepção do empregado como variável dependente (efeito). O diagnóstico da variável dependente realizou-se por meio da análise da qualidade do atendimento, produtos e serviços que a organização disponibiliza aos clientes. Especificamente, a qualidade foi aferida com base em categorias de análise elaboradas pelo pesquisador, a partir das dimensões de Berry (1996), ou seja, confiabilidade (capacidade da empresa cumprir promessas), fatores tangíveis (instalações físicas da empresa), responsividade (atendimento imediato ao cliente), previsibilidade (competência e cordialidade dos empregados para o trabalho) e empatia (atendimento individual/exclusivo ao cliente). O estudo revelou, após a análise e interpretação dos dados coletados, que a organização apresenta pontos positivos e negativos. Os principais pontos positivos são: 1) Esforço dos empregados para atender e entender os desejos do cliente; 2) Educação, aparência e o modo de vestir dos integrantes da empresa; 3) Equipamentos disponíveis para o trabalho e instalações físicas; 4) Horário de trabalho e de atendimento ao cliente. A quantidade de pontos negativos superou a dos positivos. Nesse sentido, os pontos negativos da organização são: 1) Ausência de planejamento estratégico; 2) Poucos técnicos em relação a demanda de serviços; 3) Dificuldade para cumprir prazos prometidos; 4) Pouca integração entre as áreas; 5) Ausência de incentivo e mecanismos formais que possibilite recompensar empregados eficientes; 6) Pouca aplicabilidade do marketing como instrumento para obtenção de vantagem competitiva; 7) Pouca autonomia dos dirigentes para tomar decisões; 8) Modelo de gestão com pouca ênfase no desenvolvimento gerencial; 9) Produtos em uso com ciclo de vida em fase final. Baseado na análise dos pontos positivos e negativos, pode-se classificar no Ciasc as dimensões de Berry (1996) dentro das seguintes características: 1) Confiabilidade (ponto fraco); 2) Fatores tangíveis (ponto forte); 3) Responsividade (ponto fraco); 4) Previsibilidade (ponto forte); 5) Empatia (ponto fraco). Diante desse cenário, pôde-se concluir, nitidamente, que as decisões estratégicas adotadas pelos dirigentes da organização não foram, suficientemente, eficientes e eficazes para satisfazer as necessidades e desejos dos seus clientes. Para amenizar ou mudar essa situação, o estudo sugere que a organização faça o seguinte: 1) Implemente um plano estratégico global; 2) Busque mais autonomia junto ao Governo do Estado; 3) Reavalie a sua atual estrutura organizacional; 4) Reavalie a quantidade de técnicos em relação a demanda de serviços; 5) Canalize forças em direção ao marketing; 6) Crie um clima interno favorável ao trabalho; 7) Adote um modelo de gestão mais participativo, administrando projetos e resultados e não somente pessoas.
46

Desenvolvendo data warehouses baseados em intranet

Dutra, Alessandra Costa Smolenaars January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T11:19:53Z (GMT). No. of bitstreams: 1 184297.pdf: 2398614 bytes, checksum: 42bbd780dcf2ff1df49a3694f5ed07de (MD5) / O objetivo deste trabalho é estudar e conhecer a tecnologia de Data warehouse para que ele possa ajudar os empresários a descobrir novas formas de competir em uma economia globalizada, trazendo melhores produtos ou serviços para o mercado, mais rápido do que concorrentes, sem aumentar o custo do produto ou do serviço. O Data warehouse é banco de dados especializado, o qual integra e gerencia o fluxo de informações a partir dos bancos de dados corporativos e fontes de dados externas à empresa. Não existem ainda metodologias formais para implementação de um data warehouse, ela deve ser adaptadas às características e às expectativas de cada empresa. Uma data warehouse oferece os fundamentos e os recursos necessários para um Sistema de Apoio a Decisão (SAD) eficiente, fornecendo dados integrados e históricos que servem desde a alta direção, até as gerências de baixo nível. A função do data warehouse é tornar as informações corporativas acessíveis para o seu entendimento, gerenciamento e uso. Como o data warehouse está separado dos bancos de dados operacionais, as consultas dos usuários não impactam nestes sistemas, que ficam reguardados de alterações indevidas ou perdas de dados. Um dos desafios da implantação de um data warehouse é justamente a integração destes dados, eliminando as redundâncias e identificando informações iguais que possam estar representadas sob formatos diferentes em sistemas distintos. Neste trabalho foi traçado um histórico dos sistemas de informação, apresentando as principais eras da tecnologia da informação, os seus impacto e suas tendências tecnológicas sobre elas, foram descritos os componentes fundamentais da Data Warehouse e uma introdução a tecnologias Intranet. São apresentados os vários conceitos existentes sobre Data Warehouse e Data Warehouse para Intranet, os objetivos de um Data Warehouse, as suas diversas características e as suas diversas arquiteturas que podem ser utilizadas nos projetos de Data Warehouse. São abordados os vários modelos de Data Warehouse que podem ser utilizados no seu desenvolvimento. E ainda são descritos diversos aspectos sobre o projeto e o desenvolvimento de sistemas de Data Warehouse, entre elas, a justificativa do projeto, a seleção do modelo de dados, a identificação das necessidades de informações para análise e ainda a definição da duração dos dados.
47

Análise geoestatística para geração de superfícies a partir de dados de clorofila-a adquiridos em transectos

Ribeiro, Gabrielle Gomes dos Santos [UNESP] 26 February 2015 (has links) (PDF)
Made available in DSpace on 2015-12-10T14:22:20Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-26. Added 1 bitstream(s) on 2015-12-10T14:28:25Z : No. of bitstreams: 1 000854398.pdf: 2786526 bytes, checksum: 5213cf9ad94307fb005a4b9bba358a3b (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A disposição dos elementos amostrais na área de estudo e sua influência nos resultados de análises espaciais é algo que vem sendo discutido frequentemente, já que a qualidade de uma inferência espacial vai depender do tamanho da amostra e da distribuição espacial dos pontos amostrais. Nesse sentido, este trabalho tem o objetivo de analisar o impacto que diferentes delineamentos amostrais podem causar nos resultados da inferência espacial por Krigagem Ordinária. Para isso, primeiramente utilizou-se um conjunto de dados coletado em forma de transectos em uma parte do Reservatório de Nova Avanhandava, composto por 978 observações. Esse conjunto sofreu reduções sistemáticas, com o intuito de analisar o que essas reduções causariam nos resultados das inferências espaciais. Com o objetivo de analisar diferentes delineamentos amostrais, simulou-se uma quantidade densa de dados e aplicou-se as técnicas de Amostragem Simples, Amostragem Sistemática e Amostragem Estratificada. Para complementar, utilizou-se um conjunto de dados de tamanho reduzido (70 observações), coletado de forma aleatória, a fim de analisar os resultados obtidos pela Krigagem Ordinária ao utilizar um conjunto considerado pequeno, do ponto de vista estatístico. Então, foi possível realizar o processo da Krigagem Ordinária e obter mapeamentos da variável clorofila-a na região de interesse para os diferentes tipos e tamanhos de amostras... / The arrangement of sampling units in the study area and its influence on the results of spatial analysis is something that has been frequently discussed by researchers of the area, since the quality of a spatial inference will depend on sample size and spatial distribution of sample points. In this sense, this work aims to analyze the impact that different sampling designs may cause in the results of spatial inference by ordinary kriging. For this, first we used a dataset collected in the form of transects in a part of New Avanhandava Reservoir, consisting of 978 observations. This set suffered systematics reductions, with the aim to analyze what these reductions would cause in the results of spatial inferences. In order to analyze different sampling designs, simulated up a dense amount of data and it was applied the Simple Sampling, Systematic Sampling and Stratified Sampling techniques. To complement, it was used a data set with a small size (70 observations) and collected randomly, in order to analyze the results obtained by ordinary kriging when using a set considered small, from a statistical point of view. Then, it was possible to perform the process of Ordinary Kriging and obtain mappings of the variable chlorophyll-a in the region of interest, for different types and sizes of samples. The validation of inference processes was carried out from two methods, the Mean Squared Error and the Kappa Index...
48

Avaliação de mecanismos de caching com discos de estado sólido em estruturas de armazenamento secundário

Santos, Leonardo Antônio dos January 2015 (has links)
Orientador : Prof. Dr. Carlos Alberto Maziero / Co-orientador : Prof. Dr. Luís Carlos Erpen de Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 31/08/2015 / Inclui referências : f. 68-72 / Resumo: Recentemente, os discos de estado sólido (SSDs - Solid State Disks) elevaram muito o desempenho no acesso ao armazenamento secundário. Contudo, seu custo e baixa capacidade inviabilizam a substituição integral dos discos rígidos (HDDs - Hard Disk Drives) por SSDs a curto prazo, sobretudo em instalações de maior porte. Por outro lado, é possível aliar o desempenho dos SSDs à capacidade e baixo custo dos HDDs, usando SSDs como cache dos HDDs para os dados mais acessados, de forma transparente às aplicações. Essa abordagem é usada nos discos híbridos, que são HDDs com um pequeno cache interno em estado sólido, geralmente gerenciado pelo firmware do próprio disco. Também é possível usar SSDs independentes como cache de HDDs subjacentes, com o gerenciamento feito pelo sistema operacional. O núcleo Linux oferece dois subsistemas de gerenciamento de caches em SSD, DMCache e BCache, que usam abordagens e algoritmos distintos. Este trabalho avalia estes dois subsistemas em diversas configurações de SSDs, HDDs e RAID, sob diversas cargas de trabalho, com o objetivo de compreender seu funcionamento e definir diretrizes para a configuração de tais subsistemas em ambientes computacionais de médio/grande porte. Dentre os resultados apontados neste trabalho, foi verificado que em workloads mais sequenciais, como em servidores de arquivos, o uso de cache pode alcançar até 72% a mais de desempenho se comparado aos RAIDs de HDDs. Em workloads aleatórios, como em bancos de dados, o uso de caching SSD pode apresentar pouco desempenho diante de custos elevados por GB, chegando a 79%. / Abstract: Recently, Solid State Disks (SSDs) has elevated performance in secondary storage access. However, its high cost and low capacity make it impossible to fully replace Hard Disk Drives (HDDs) for SSDs in a short-term, especially in larger environments. On the other hand, it is possible to combine the performance of SSDs and low cost of HDDs, using SSDs as cache of HDDs for the most accessed data, transparently to applications. This approach is used in hybrid drives, which are HDDs with a small internal solid state cache, usually managed by device firmware itself. You can also use independent SSDs as underlying HDDs cache with the management assigned to operating system. Linux kernel offers two subsystems caches management in SSD, DMCache and BCache, using different approaches and algorithms. This work evaluates these two subsystems in various configurations of SSDs, HDDs and RAID over various arranges and workloads, in order to understand its operation in specific scenarios and set guidelines for setting up such subsystems in computing environments of medium and large scales. Among the presented results, it was found that in most sequential workloads, such as file servers, the use of cache can achieve up to 72% more performance compared to RAID of HDDs. In random workloads, such as databases, the use of SSD caching may have little performance before high costs per GB, which could reach up to 79%.
49

Gerenciamento de transação e mecanismo de serialização baseado em Snapshot

Almeida, Fábio Renato de [UNESP] 28 February 2014 (has links) (PDF)
Made available in DSpace on 2015-04-09T12:28:25Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-02-28Bitstream added on 2015-04-09T12:47:36Z : No. of bitstreams: 1 000811822.pdf: 1282272 bytes, checksum: ffbcb6d3dc96adfefe2d6b8418c1e323 (MD5) / Dentre os diversos níveis de isolamento sob os quais uma transação pode executar, Snapshot se destaca pelo fato de lidar com uma visão isolada da base de dados. Uma transação sob o isolamento Snapshot nunca bloqueia e nunca é bloqueada quando solicita uma operação de leitura, permitindo portanto uma maior concorrência quando a mesma é comparada a uma execução sob um isolamento baseado em bloqueios. Entretanto, Snapshot não é imune a todos os problemas decorrentes da concorrência e, portanto, não oferece garantia de serialização. Duas estratégias são comumente empregadas para se obter tal garantia. Na primeira delas o próprio Snapshot é utilizado, mas uma alteração estratégica na aplicação e na base de dados, ou até mesmo a inclusão de um componente de software extra, são empregados como auxiliares para se obter apenas históricos serializáveis. Outra estratégia, explorada nos últimos anos, tem sido a construção de algoritmos fundamentados no protocolo de Snapshot, mas adaptados de modo a impedir as anomalias decorrentes do mesmo e, portanto, garantir serialização. A primeira estratégia traz como vantagem o fato de se aproveitar os benefícios de Snapshot, principalmente no que diz respeito ao monitoramento apenas dos elementos que são escritos pela transação. Contudo, parte da responsabilidade em se lidar com problemas de concorrência é transferida do Sistema Gerenciador de Banco de Dados (SGBD) para a aplicação. Por sua vez, a segunda estratégia deixa apenas o SGBD como responsável pelo controle de concorrência, mas os algoritmos até então apresentados nesta categoria tem exigido também o monitoramento dos elementos lidos. Neste trabalho é desenvolvida uma técnica onde os benefícios de Snapshot são mantidos e a garantia de serialização é obtida sem a necessidade de adaptação do código da aplicação ou da introdução de uma camada de software extra. A técnica proposta é ... / Among the various isolation levels under which a transaction can execute, Snapshot stands out because of its capacity to work on an isolated view of the database. A transaction under the Snapshot isolation never blocks and is never blocked when requesting a read operation, thus allowing a higher level of concurrency when it is compared to an execution under a lock-based isolation. However, Snapshot is not immune to all the problems that arise from the competition, and therefore no serialization warranty exists. Two strategies are commonly employed to obtain such assurance. In the first one Snapshot itself is used, but a strategic change in the application and database, or even the addition of an extra software component, are employed as assistants to get only serializable histories. Another strategy, explored in recent years, has been the coding of algorithms based on the Snapshot protocol, but adapted to prevent the anomalies arising from it, and therefore ensure serialization. The first strategy has the advantage of exploring the benefits of Snapshot, especially with regard to monitoring only the elements that are written by the transaction. However, part of the responsibility for dealing with competition issues is transferred from the Database Management System (DBMS) to the application. In turn, the second strategy leaves only the DBMS as responsible for concurrency control, but the algorithms presented so far in this category also require the monitoring of the elements that the transaction reads. In this work we developed a technique where the benefits of Snapshot use are retained and serialization warranty is achieved without the need for adaptation of application code or the addition of an extra software layer. The proposed technique is implemented in a prototype of a DBMS that has temporal features and has been built to demonstrate the applicability of the technique in systems that employ the object-oriented model. However, the ...
50

Algoritmo de escalonamento de instância de máquina virtual na computação em nuvem

Bachiega, Naylor Garcia [UNESP] 19 May 2014 (has links) (PDF)
Made available in DSpace on 2014-11-10T11:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-05-19Bitstream added on 2014-11-10T11:58:47Z : No. of bitstreams: 1 000790282.pdf: 1551632 bytes, checksum: 1c51e3c52479631d4efb320e548d592b (MD5) / Na tentativa de reduzir custos aproveitando de maneira eficiente recursos computacionais, novas tecnologias e arquiteturas desenvolvidas estão conquistando grande aceitação do mercado. Uma dessas tecnologias é a Computação em Nuvem, que tenta resolver problemas como consumo energético e alocação de espaço físico em centros de dados ou grandes empresas. A nuvem é um ambiente compartilhado por diversos clientes e permite um crescimento elástico, onde novos recursos como hardware ou software, podem ser contratados ou vendidos a qualquer momento. Nesse modelo, os clientes pagam por recursos que utilizam e não por toda a arquitetura envolvida. Sendo assim, é importante determinar de forma eficiente como esses recursos são distribuídos na nuvem. Portanto, esse trabalho teve como objetivo desenvolver um algoritmo de escalonamento para nuvem que determinasse de maneira eficiente a distribuição de recursos dentro da arquitetura. Para alcançar esse objetivo, foram realizados experimentos com gestores de nuvem open-source, detectando a deficiência dos algoritmos atuais. O algoritmo desenvolvido foi comparado com o algoritmo atual do gestor OpenStack Essex, um gestor de nuvem open-source. Os resultados experimentais demonstraram que o novo algoritmo conseguiu determinar as máquinas menos sobrecarregadas da nuvem, conseguindo desse modo, distribuir a carga de processamento dentro do ambiente privado / In an attempt to reduce costs by taking advantage of efficient computing resources, new technologies and architectures developed are gaining wide acceptance in the market. One such technology is cloud computing, which tries to solve problems like energy consumption and allocation of space in data centers or large companies. The cloud is an environment shared by multiple clients and enables elastic growth, where new features such as hardware or software, can be hired or sold at any time. In this model, customers pay for the resources they use and not for all the architecture involved. Therefore, it is important to determine how efficiently those resources are distributed in the cloud. Therefore, this study aimed to develop a scheduling algorithm for cloud efficiently determine the distribution of resources within the architecture. To achieve this goal, experiments were conducted with managers of open-source cloud, detecting the deficiency of current algorithms. This algorithm was compared with the algorithm of the OpenStack Essex manager, a manager of open-source cloud. The experimental results show that the new algorithm could determine the machines less the cloud overloaded, achieving thereby distribute the processing load within the private environment

Page generated in 0.0853 seconds