• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3014
  • 105
  • 2
  • Tagged with
  • 3122
  • 3122
  • 2809
  • 2809
  • 2809
  • 1921
  • 981
  • 550
  • 477
  • 466
  • 416
  • 400
  • 400
  • 368
  • 366
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Paralelizando o MOPAC usando CUDA e bibliotecas de Matrizes Esparsas

Mangueira Junior, Carlos Peixoto 23 March 2012 (has links)
Made available in DSpace on 2015-05-14T12:36:31Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 1940743 bytes, checksum: bb735e70b492ac362a56323e53c914f4 (MD5) Previous issue date: 2012-03-23 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work describes the implementation of parallel algorithms whose main goal is to accelerate the implementation of numerical calculations existing in quantum chemistry programs. These programs use some methods whose order of complexity varies from O(n3) and O(n5), where n is the parameter related to the amount of atoms in a molecule. This becomes a limiting factor when one wants to work with molecular systems containing thousands of atoms, such as proteins, DNA and polysaccharides. It is explored both the parallelism provided by graphics cards and the CUDA programming model are also used libraries for manipulating sparse matrices, which are common in these calculations. The results show gains of more than 100% for test instances. / Este trabalho apresenta a implementação de algoritmos paralelos cujo objetivo principal é acelerar a execução de cálculos numéricos existentes em programas de Química Quântica. Estes programas utilizam alguns métodos cuja ordem de complexidade varia entre O(n3) e O(n5), onde o parâmetro n está relacionado à quantidade de átomos de uma molécula. Isto se torna um fator limitante quando se quer trabalhar com sistemas moleculares contendo milhares de átomos, como por exemplo, proteínas, DNA e polissacarídeos. É explorado tanto o paralelismo proporcionado pelas placas gráficas e pelo modelo de programação CUDA como também são utilizadas bibliotecas para manipulação de matrizes esparsas, que são comuns nestes cálculos. Os resultados obtidos demonstram ganhos superiores a 100% para as instâncias testes.
12

Processamento ElÃstico e NÃo-intrusivo de Consultas em Ambientes de Nuvem Considerando o SLA.

Ticiana Linhares Coelho da Silva 16 January 2013 (has links)
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior / ComputaÃÃo em Nuvem ou Cloud Computing à um paradigma promissor de computaÃÃo orientada a serviÃos. O seu maior benefÃcio à a elasticidade, isto Ã, a capacidade do sistema de adicionar e remover recursos automaticamente em tempo de execuÃÃo. Para isso, à essencial projetar e implementar uma tÃcnica efetiva e eficiente que tire proveito da flexibilidade do sistema. Dessa forma, prover elasticidade requer monitorar continuamente (ou prever) a demanda do sistema por recursos, com objetivo de decidir quando adicionÃ-los e removÃ-los. Este trabalho apresenta um mÃtodo de monitoramento nÃo-intrusivo e contÃnuo de SGBDs relacionais em uma infraestrutura de nuvem, visando minimizar a quantidade de mÃquinas virtuais provisionadas para o processamento de consultas, e consequentemente maximizar o uso eficiente do ambiente do provedor. AlÃm disso, ele visa satisfazer um "acordo de nÃvel de serviÃo", em inglÃs service-level agrement (SLA), associado a cada consulta submetida ao sistema. Dessa forma, um objetivo desse trabalho tambÃm à minimizar a penalidade paga pelo provedor para os casos em que ocorre a violaÃÃo do SLA. AlÃm do mÃtodo de monitoramento, este trabalho tambÃm apresenta um mÃtodo de provisionamento de MVs para o processamento da consulta como contribuiÃÃes. Nossa estratÃgia de monitoramento à aplicada a consultas select-range e consultas com agregaÃÃo sobre uma Ãnica tabela. Os experimentos foram realizados na infraestrutura de nuvem da Amazon, confirmando que nossa tÃcnica à elÃstica, permitindo ajustar os recursos alocados no sistema de forma automÃtica e dinÃmica, com base no SLA acordado.
13

OntologyManagementTool - uma ferramenta para gerenciamento de ontologias como teorias lÃgicas. / OntologyManagementTool - a tool for managing ontologies as logical theories.

Ãngela Maria Alves Pinheiro 05 April 2013 (has links)
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico / Diversos projetos nacionais e internacionais, como o dados.gov.br e o Linking Open Data, foram desenvolvidos com a finalidade de fomentar a criaÃÃo da Web de dados, que surge como uma nova abordagem para efetivamente publicar, recuperar e descrever dados distribuÃdos na Web. Diante desse cenÃrio, tais projetos enfrentam o desafio de criar e manter os dados estruturados que seguem os princÃpios do Linked Data, descritos no modelo de dados RDF e representados por ontologias. Esse desafio envolve outras tarefas complexas, tais como: reusar o vocabulÃrio das ontologias largamente utilizadas na elaboraÃÃo de novas ontologias (com a finalidade de promover a interoperabilidade e a integraÃÃo entre as aplicaÃÃes) e permitir a detecÃÃo de inconsistÃncias entre os termos de uma determinada ontologia. Com o objetivo de propor uma soluÃÃo para esse desafio, o problema de gerenciamento de ontologias foi abordado nesta dissertaÃÃo. Na literatura, existe uma grande variedade de trabalhos disponÃveis com diferentes enfoques e processos que propÃem o gerenciamento de ontologias. Entretanto, poucos trabalhos preocupam-se em auxiliar o especialista do domÃnio na elaboraÃÃo de uma ontologia que representa um entendimento correto sobre a semÃntica das ontologias envolvidas, visto que, para isso faz-se necessÃrio considerar as restriÃÃes lÃgicas das ontologias originais e propagÃ-las para as novas ontologias. AlÃm disso, foi percebido que, nos trabalhos anteriores, existe a necessidade de utilizar vÃrias ferramentas durante o processo de gerenciamento de ontologias, o que aumenta o esforÃo manual a ser despendido pelo especialista do domÃnio na elaboraÃÃo de novas ontologias. Sendo assim, a fim de oferecer algumas funcionalidades diferenciadas e de modo integrado ao gerenciamento de ontologias, foi desenvolvido um protÃtipo, denominado OntologyManagementTool. O protÃtipo desenvolvido considera as ontologias nÃo apenas como vocabulÃrio, mas como teorias lÃgicas, isto Ã, leva em conta tambÃm o seu conjunto de restriÃÃes. Cada ontologia manipulada à primeiramente normalizada para atender ao formalismo da LÃgica Descritiva, com um nÃmero especÃfico de restriÃÃes. Posteriormente, essa ontologia à transformada em um grafo de restriÃÃes, e assim, à possÃvel gerenciÃ-la a partir de um conjunto de operaÃÃes algÃbricas sobre o grafo. Destacam-se as seguintes operaÃÃes: uniÃo, interseÃÃo, diferenÃa eprojeÃÃo. ApÃs a execuÃÃo de cada uma dessas operaÃÃes, à possÃvel obter uma nova ontologia, bem como, o mapeamento entre as ontologias envolvidas. O trabalho proposto teve a sua aplicabilidade comprovada a partir de experimentos executados em ontologias descrevendo fontes de dados reais. Os resultados obtidos mostraram que a complexidade para gerar o grafo de restriÃÃes à linear em relaÃÃo ao nÃmero de restriÃÃes das ontologias; jà a complexidade do processamento das operaÃÃes algÃbricas (interseÃÃo, diferenÃa e projeÃÃo) à quadrÃtica em relaÃÃo ao nÃmero de vÃrtices do grafo de restriÃÃes, sendo importante evidenciar que o fator determinante para obtenÃÃo dessa complexidade à o procedimento escolhido para lidar com as restriÃÃes de inclusÃo, denominado fecho transitivo.
14

S-SWAP: scale-space based workload analysis and prediction

Gustavo Adolfo Campos dos Santos 04 October 2013 (has links)
nÃo hà / This work presents a scale-space based approach to assist dynamic resource provisioning. The application of this theory makes it possible to eliminate the presence of irrelevant information from a signal that can potentially induce wrong or late decision making. Dynamic provisioning involves increasing or decreasing the amount of resources allocated to an application in response to workload changes. While monitoring both resource consumption and application-specic metrics is fundamental in this process since the latter is of great importance to infer information about the former, dealing with these pieces of information to provision resources in dynamic environments poses a big challenge. The presence of unwanted characteristics, or noise, in a signal that represents the monitored metrics favors misleading interpretations and is known to aect forecast models. Even though some forecast models are robust to noise, reducing its inuence may decrease training time and increase eciency. Because a dynamic environment demands decision making and predictions on a quickly changing landscape, approximations are necessary. Thus it is important to realize how approximations give rise to limitations in the forecasting process. On the other hand, being aware of when detail is needed, and when it is not, is crucial to perform ecient dynamic forecastings. In a cloud environment, resource provisioning plays a key role for ensuring that providers adequately accomplish their obligation to customers while maximizing the utilization of the underlying infrastructure. Experiments are shown considering simulation of both reactive and proactive strategies scenarios with a real-world trace that corresponds to access rate. Results show that embodying scale-space theory in the decision making stage of dynamic provisioning strategies is very promising. It both improves workload analysis, making it more meaningful to our purposes, and lead to better predictions.
15

G2P-DBSCAN: Data Partitioning Strategy and Distributed Processing of DBSCAN with MapReduce. / G2P-DBSCAN: EstratÃgia de Particionamento de Dados e de Processamento DistribuÃdo fazer DBSCAN com MapReduce.

AntÃnio Cavalcante AraÃjo Neto 17 August 2015 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / Clustering is a data mining technique that brings together elements of a data set such so that the elements of a same group are more similar to each other than to those from other groups. This thesis studied the problem of processing the clustering based on density DBSCAN algorithm distributedly through the MapReduce paradigm. In the distributed processing it is important that the partitions are processed have approximately the same size, provided that the total of the processing time is limited by the time the node with a larger amount of data leads to complete the computation of data assigned to it. For this reason we also propose a data set partitioning strategy called G2P, which aims to distribute the data set in a balanced manner between partitions and takes into account the characteristics of DBSCAN algorithm. More Specifically, the G2P strategy uses grid and graph structures to assist in the division of space low density regions. Distributed DBSCAN the algorithm is done processing MapReduce two stages and an intermediate phase that identifies groupings that can were divided into more than one partition, called candidates from merging. The first MapReduce phase applies the algorithm DSBCAN the partitions individually. The second and checks correcting, if necessary, merge candidate clusters. Experiments using data sets demonstrate that true G2P-DBSCAN strategy overcomes the baseline adopted in all the scenarios, both at runtime and quality of obtained partitions. / ClusterizaÃao à uma tÃcnica de mineraÃÃo de dados que agrupa elementos de um conjunto de dados de forma que os elementos que pertencem ao mesmo grupo sÃo mais semelhantes entre si que entre elementos de outros grupos. Nesta dissertaÃÃo nÃs estudamos o problema de processar o algoritmo de clusterizaÃÃo baseado em densidade DBSCAN de maneira distribuÃda atravÃs do paradigma MapReduce. Em processamentos distribuÃdos à importante que as partiÃÃes de dados a serem processadas tenham tamanhos proximadamente iguais, uma vez que o tempo total de processamento à delimitado pelo tempo que o nà com uma maior quantidade de dados leva para finalizar a computaÃÃo dos dados a ele atribuÃdos. Por essa razÃo nÃs tambÃm propomos uma estratÃgia de particionamento de dados, chamada G2P, que busca distribuir o conjunto de dados de forma balanceada entre as partiÃÃes e que leva em consideraÃÃo as caracterÃsticas do algoritmo DBSCAN. Mais especificamente, a estratÃgia G2P usa estruturas de grade e grafo para auxiliar na divisÃo do espaÃo em regiÃes de baixa densidade. Jà o processamento distribuÃdo do algoritmo DBSCAN se dà por meio de duas fases de processamento MapReduce e uma fase intermediÃria que identifica clusters que podem ter sido divididos em mais de uma partiÃÃo, chamados de candidatos à junÃÃo. A primeira fase de MapReduce aplica o algoritmo DSBCAN nas partiÃÃes de dados individualmente, e a segunda verifica e corrige, caso necessÃrio, os clusters candidatos à junÃÃo. Experimentos utilizando dados reais mostram que a estratÃgia G2P-DBSCAN se comporta melhor que a soluÃÃo utilizada para comparaÃÃo em todos os cenÃrios considerados, tanto em tempo de execuÃÃo quanto em qualidade das partiÃÃes obtidas.
16

Complexidade e algoritmos de jogos de blocos / Complexity and blocks games algorithms

Andrà Castro Ramos 17 July 2014 (has links)
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior / A noÃÃo de jogo eletrÃnico remete a entretenimento reservado Ãs horas vagas, mas, alÃm de uma indÃstria bilionÃria, tambÃm à origem potencial de diversos temas de pesquisa, tanto voltados a suas respectivas Ãreas quanto de interesse da prÃpria indÃstria de jogos. Nesse contexto, nas Ãltimas dÃcadas, foram produzidos trabalhos que lidam com esse tipo de produto como base para problemas a serem tratados pela teoria dos algoritmos. Neste trabalho trazemos resultados de complexidade e algoritmos relacionados a 3 jogos com caracterÃsticas em comum, Bloxorz, On The Edge e Bobbin 3D. / The electronic game concept refers to reserved entertainment to spare time , but in addition to a billion dollar industry , is also potential source of several research topics , both directed to their respective areas of interest as own gaming industry . In this context, in recent decades, work has been done to deal with this type of product based on for problems to be addressed by the theory of algorithms. In this work we bring complexity results and algorithms related to three games with common characteristics , Bloxorz , On The Edge and Bobbin 3D.
17

Minimum spanning tree problem with minimum degree constraint and central and fixed terminals / Problema de Ãrvore Geradora MÃnima com RestriÃÃo de Grau MÃnima e Centrais e Terminais Fixos

FÃbio Carlos Sousa Dias 31 July 2014 (has links)
nÃo hà / The Min-Degree Constrained Minimum Spannig Tree - MD-MST is to find a minimum spanning tree of a graph where each vertex is a leaf of the tree or satisfies a constraint of minimum degree. The leaf vertices are called terminals and the others are the central vertices. We define and study a variation of this problem, which we denote MDF-MST, where the terminal and central vertices are fixed. We show that the problem is NP-Hard and is in FPT, parameterized by the number of central vertices. We also identify cases where the problem becomes polynomial. We propose several integer programming formulations for the problem and compare the quality of lower bound generated by their linear relaxations. We propose and teste a Lagrangian Relaxation for the problem, which we also use to define Lagrangian heuristics. We define greedy heuristics, a VND Local search and a VNS heuristic. We present a Bendersâs Decomposition. We propose a new general heuristic that combines ingredients from the Bendersâs decomposition with subgradient method, which we call subgradient heuristic. We apply this heuristic to the MDF-MST. All these algorithms have been implemented, tested and compared among them and with the CPLEX solver. The computational efficiency of the proposed algorithms, especially the Lagrangian heuristics, is comparable with that of CPLEX, and even better in several cases. Some of these algorithms were adapted for the MD-MST and DC-MST (inthelatter,thedegreeconstraintisofmaximumdegree). Whencomparingthecomputational results with the literature, we conclude that the algorithms are competitive. / O Problema de Ãrvore Geradora MÃnima com RestriÃÃo de Grau MÃnimo (Min-Degree Constrained Minimum Spannig Tree - MD-MST) consiste em encontrar uma Ãrvore geradora mÃnima de um grafo onde cada vÃrtice ou à folha da Ãrvore ou satisfaz uma restriÃÃo de grau mÃnimo. Os vÃrtices folhas sÃo chamados terminais e os demais sÃo os centrais. Definimos e estudamos uma variaÃÃo desse problema, que denotamos MDF-MST, onde os terminais e centrais sÃo definidos a priori. Mostramos que o problema à NP-DifÃcil e està na Classe FPT, parametrizado pelo nÃmero de centrais. Identificamos tambÃm casos onde o problema torna-se polinomial. Propomos vÃrias formulaÃÃes de programaÃÃo inteira para o problema e comparamos teÃrica e computacionalmente a qualidade do limite inferior gerado por suas relaxaÃÃes lineares. Propomos e testamos uma relaxaÃÃo lagrangeana para o problema, que usamos tambÃm para definir heurÃsticas lagrangenas. Definimos heurÃsticas gulosas, uma busca VND e uma heurÃstica VNS. Apresentamos uma decomposiÃÃo de Benders. Propomos uma nova heurÃstica geral que combina ingredientes da decomposiÃÃo de Benders com mÃtodo de subgradientes, a qual denominamos HeurÃstica de Subgradientes. Aplicamos tal heurÃstica ao MDF-MST. Todos esses algoritmos foram implementados, testados, comparados entre si e com o solver CPLEX. A eficiÃncia computacional dos algoritmos propostos, especialmente a relaxaÃÃo lagrangeana, à competitiva com a do CPLEX, e superior em vÃrios casos. Alguns desses algoritmos foram adaptados para o problema MD-MST e seu correlato DC-MST (este Ãltimo onde a restriÃÃo sobre os centrais à de grau mÃximo). Quando comparamos os resultados computacionais com a literatura
18

Mobility Data under Analysis a Complex Network Perspective from Interactions Among Trajectories to Movements among Points Interest

Igo Ramalho Brilhante 10 February 2012 (has links)
The explosion of personal positioning devices like GPS-enabled smartphones has enabled the collection and storage of a huge amount of positioning data in the form of trajectories. Thereby, trajectory data have brought many research challenges in the process of recovery, storage and knowledge discovery in mobility as well as new applications to support our society in mobility terms. Other research area that has been receiving great attention nowadays is the area of complex network or science of networks. Complex network is the first approach to model complex system that are present in the real world, such as economic markets, the Internet, World Wide Web and disease spreading to name a few. It has been applied in different field, like Computer Science, Biology and Physics. Therefore, complex networks have demonstrated a great potential to investigate the behavior of complex systems through their entities and the relationships that exist among them. The present dissertation, therefore, aims at exploiting approaches to analyze mobility data using a perspective of complex networks. The first exploited approach stands for the trajectories as the main entities of the networks connecting each other through a similarity function. The second, in turn, focuses on points of interest that are visited by people, which perform some activities in these points. In addition, this dissertation also exploits the proposed methodologies in order to develop a software tool to support users in mobility analysis using complex network techniques.
19

RepliC: ReplicaÃÃo ElÃstica de Banco de Dados Multi-Inquilino em Nuvem com Qualidade de ServiÃo / RepliC: Elastic Multi-Tenant Database Replication in the Cloud with Quality of Service

FlÃvio Rubens de Carvalho Sousa 15 January 2013 (has links)
nÃo hà / Fatores econÃmicos estÃo levando ao aumento das infraestruturas e instalaÃÃes de fornecimento de computaÃÃo como um serviÃo, conhecido como Cloud Computing ou ComputaÃÃo em Nuvem, onde empresas e indivÃduos podem alugar capacidade de computaÃÃo e armazenamento, em vez de fazerem grandes investimentos de capital necessÃrios para a construÃÃo e instalaÃÃo de equipamentos de computaÃÃo em larga escala. Na nuvem, o usuÃrio do serviÃo tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviÃo (QoS) sÃo definidas entre o provedor do serviÃo e o usuÃrio e expressas por meio de um acordo de nÃvel de serviÃo (SLA). Este acordo consiste de contratos que especificam um nÃvel de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneÃam SLAs baseados em caracterÃsticas de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviÃos oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computaÃÃo em nuvem devem tratar uma grande quantidade de aplicaÃÃes, tenants ou inquilinos. Abordagens multi-inquilino tÃm sido utilizadas para hospedar vÃrios inquilinos dentro de um Ãnico SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma caracterÃstica chave à a replicaÃÃo de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviÃo. TÃcnicas de replicaÃÃo de dados tÃm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratÃgias de replicaÃÃo de banco de dados tÃm se concentrado em aspectos de escalabilidade e consistÃncia do sistema com um nÃmero estÃtico de rÃplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino tÃm recebido pouca atenÃÃo. Estas questÃes sÃo importantes em ambientes em nuvem, pois os provedores precisam adicionar rÃplicas de acordo com a carga de trabalho para evitar violaÃÃo do SLA e eles precisam remover rÃplicas quando a carga de trabalho diminui, alÃm de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicaÃÃo de banco de dados em nuvem com foco na qualidade do serviÃo, elasticidade e utilizaÃÃo eficiente dos recursos por meio de tÃcnicas multi-inquilino. RepliC utiliza informaÃÃes dos SGBDs e do provedor para provisionar recursos de forma dinÃmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviÃo e elasticidade sÃo apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violaÃÃo do SLA enquanto utiliza os recursos de forma eficiente. / Fatores econÃmicos estÃo levando ao aumento das infraestruturas e instalaÃÃes de fornecimento de computaÃÃo como um serviÃo, conhecido como Cloud Computing ou ComputaÃÃo em Nuvem, onde empresas e indivÃduos podem alugar capacidade de computaÃÃo e armazenamento, em vez de fazerem grandes investimentos de capital necessÃrios para a construÃÃo e instalaÃÃo de equipamentos de computaÃÃo em larga escala. Na nuvem, o usuÃrio do serviÃo tem algumas garantias, tais como desempenho e disponibilidade. Essas garantias de qualidade de serviÃo (QoS) sÃo definidas entre o provedor do serviÃo e o usuÃrio e expressas por meio de um acordo de nÃvel de serviÃo (SLA). Este acordo consiste de contratos que especificam um nÃvel de qualidade que deve ser atendido e penalidades em caso de falha. Muitas empresas dependem de um SLA e estas esperam que os provedores de nuvem forneÃam SLAs baseados em caracterÃsticas de desempenho. Contudo, em geral, os provedores baseiam seus SLAs apenas na disponibilidade dos serviÃos oferecidos. Sistemas de gerenciamento de banco de dados (SGBDs) para computaÃÃo em nuvem devem tratar uma grande quantidade de aplicaÃÃes, tenants ou inquilinos. Abordagens multi-inquilino tÃm sido utilizadas para hospedar vÃrios inquilinos dentro de um Ãnico SGBD, favorecendo o compartilhamento eficaz de recursos, alÃm de gerenciar uma grande quantidade de inquilinos com padrÃes de carga de trabalho irregulares. Por outro lado, os provedores em nuvem devem reduzir os custos operacionais garantindo a qualidade. Neste contexto, uma caracterÃstica chave à a replicaÃÃo de banco de dados, que melhora a disponibilidade, desempenho e, consequentemente, a qualidade do serviÃo. TÃcnicas de replicaÃÃo de dados tÃm sido usadas para melhorar a disponibilidade, o desempenho e a escalabilidade em diversos ambientes. Contudo, a maior parte das estratÃgias de replicaÃÃo de banco de dados tÃm se concentrado em aspectos de escalabilidade e consistÃncia do sistema com um nÃmero estÃtico de rÃplicas. Aspectos relacionados à elasticidade para banco de dados multi-inquilino tÃm recebido pouca atenÃÃo. Estas questÃes sÃo importantes em ambientes em nuvem, pois os provedores precisam adicionar rÃplicas de acordo com a carga de trabalho para evitar violaÃÃo do SLA e eles precisam remover rÃplicas quando a carga de trabalho diminui, alÃm de consolidar os inquilinos. Visando solucionar este problema, este trabalho apresenta RepliC, uma abordagem para a replicaÃÃo de banco de dados em nuvem com foco na qualidade do serviÃo, elasticidade e utilizaÃÃo eficiente dos recursos por meio de tÃcnicas multi-inquilino. RepliC utiliza informaÃÃes dos SGBDs e do provedor para provisionar recursos de forma dinÃmica. Com o objetivo de avaliar RepliC, experimentos que medem a qualidade de serviÃo e elasticidade sÃo apresentados. Os resultados destes experimentos confirmam que RepliC garante a qualidade com uma pequena quantidade de violaÃÃo do SLA enquanto utiliza os recursos de forma eficiente.
20

A transformada de Fourier quântica aproximada e sua simulação / The approximate quantum Fourier transform and its simulation

Franklin de Lima Marquezino 23 March 2006 (has links)
A Computação Quântica é uma área de pesquisa científica onde a teoria da Mecânica Quântica é usada para descrever um conceito mais geral que o da Máquina Universal de Turing clássica. esta abordagem permite o desenvolvimento de algoritmos que podem ser consideravelmente mais rápidos que suas contrapartidas clássicas. Todos os algoritmos quânticos conhecidos até hoje que são exponencialmente mais rápidos que seus correspondentes clássicos utilizam a transformada de Fourier Quântica (QFT) em alguma parte. Nesta dissertação, as versões exata e aproximada da QFT são construídas usando uma abordagem que generaliza o resultado fundamental de Coppersmith. O processo inicia com a representação matricial genérica da Transformada de Fourier Rápida (FFT) clássica, como descrita por Knuth, seguida por sua decomposição em termos de operadores quânticos universais. Tal decomposição também é alcançada por meio de uma abordagem recursiva. A simulação de computadores quânticos também é discutida. Experimentos computacionais são realizados com o objetivo de simular a QFT Aproximada sobre estados da base computacional e gatos de Schrödinger, e com diferentes níveis de aproximação. A qualidade das soluções e a complexidade computacional são estudadas, levando a resultados consistentes com a teoria.

Page generated in 0.0235 seconds