• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

[en] SYSTEM FOR KEYWORD SEARCH IN RELATIONAL DATABASE / [pt] SISTEMA PARA CONSULTAS SOBRE BANCO DE DADOS RELACIONAL BASEADO EM PALAVRAS-CHAVE

LEANDRO DOS SANTOS NAZARETH 02 July 2009 (has links)
[pt] Esta dissertação descreve um sistema desenvolvido que permite a criação e execução de consultas a partir de palavras-chave sobre um banco de dados relacional. O sistema recebe palavras-chave quaisquer e tenta criar consultas que podem ser executadas em um Sistema de Gerenciamento de Banco de dados (SGBD). Para realizar esta geração automática de consultas o sistema utiliza os dados do catálogo da base de origem. O sistema permite assim efetuar consultas em um SGBD sem o conhecimento de uma linguagem de consultas, como SQL, e sem conhecimento do modelo do banco de dados. / [en] This dissertation describes a developed system that allows the creation and execution of searches from keywords in a relational database. The system receives any keywords and tries to create queries that can be executed in database. To perform this automatic generation of queries the system uses the information of the catalogue of the source database. The system allows to make queries in a database without the knowledge of a language queries, like SQL, and the model from the database.
202

Algoritmo para prospecção multirrelacional de dados espaciais /

Ichiba, Fernando Tochio. January 2013 (has links)
Orientador: Carlos Roberto Valêncio / Banca: José Márcio Machado / Banca: Pedro Luiz Pizzigatti Corrêa / Resumo: As pesquisas acerca de spatial data mining - ou prospecção de dados espaciais - tem avançado no sentido de melhorar a qualidade dos resultados obtidos pelos algoritmos da área e aprimorar as técnicas utilizadas, na tentativa de apresentar soluções que contornam os principais problemas e desafios: custo computacional elevado e baixa eficiência dos algoritmos. Neste trabalho, é apresentado um algoritmo desenvolvido para prospecção de dados espaciais, que introduz uma abordagem multirrelacional para suportar o agrupamento de dados por similaridade de características espaciais e não espaciais com possibilidade de agregação semântica nessa tarefa. Aplicável a bases de dados volumosas, o algoritmo desenvolvido apresentou resultados com qualidade superior nos experimentos realizados, se comparado com alguns dos mais tradicionais de spatial data mining, sem que houvesse perda semântica no levantamento das informações - muitas vezes ocasionada pelas junções de dados exigidas na aplicação de algoritmos tradicionais - e com um desempenho otimizado por meio do uso de multithreading / Abstract: Researches involving spatial data mining have advanced in order to improve the quality of results obtained with algorithms and techniques, aiming to present solutions which avoid the main problems and challenges in this research area: high computational cost and low efficiency of the algorithms. In this work, an algorithm for spatial data mining is presented, based on techniques introduced by the VDBSCAN algorithm, which introduces a multi-relational approach to support spatial clustering by similarity of spatial and non-spatial characteristics with the possibility of semantic aggregation in this process. The developed algorithm is able to deal with voluminous databases and it presented better results than some of the most traditional spatial data mining algorithms, avoiding semantic losses in data joining required by traditional algorithms and performing an optimised execution time due to the use of multithreading / Mestre
203

Um modelo para manutenção de esquema e de dados em data warehouses implementados em plataformas móveis. / A model to schema and data maintenance in data warehouses implemented at mobile platforms.

Italiano, Isabel Cristina 11 June 2007 (has links)
O presente trabalho propõe uma arquitetura de utilização de Data Warehouses em computadores móveis, descreve os componentes desta arquitetura (dados e processos) que permite o sincronismo dos dados baseado em metadados e limitado ao escopo de acesso de cada usuário. As estruturas de dados e os processos que compõem a arquitetura proposta são reduzidos a problemas conhecidos e já solucionados, justificando sua viabilidade. Além disso, o presente trabalho também fornece diretrizes para avaliar a complexidade e o impacto causados por alterações de esquema no Data Warehouse central que devem ser refletidas nos data marts localizados nas plataformas móveis. A avaliação da complexidade e impacto das alterações nos esquemas do Data Warehouse pode auxiliar os administradores do ambiente a planejar a implementação destas alterações, propondo melhores alternativas no caso de alterações de esquema mais complexas e que causem um impacto maior no ambiente. A importância do trabalho está relacionada a casos reais de necessidade de evolução nas bases de dados analíticas (Data Warehouse) em computadores móveis, nos quais os usuários mantêm seu próprio subconjunto de dados do Data Warehouse para apoiar os processos de negócios. / This work presents an architecture for using Data Warehouses in mobile computers and describes the architecture components (data and processes) that allow the data synchronism based on metadata and restricted to the scope of access for each user. The data structures and the processes composing the architecture are reduced to already known and solved problems, justifying its feasibility. Besides, this work also provides the guidelines to evaluate the complexity and impact caused by changes of schema in the central Data Warehouse that must be reflected in the data marts located in the mobile platforms. The analysis of the complexity and impact of the changes made to the schemas may help environment administrators to plan these changes and propose better alternatives when dealing with more complex schema changes causing a greater impact on the environment. The relevance of this work is related to real cases that require evolution of analytical databases (Data Warehouse) in mobile computers in which the users keep their own subset of Data Warehouse information to support their business processes.
204

Griddler : uma estratégia configurável para armazenamento distribuído de objetos peer-to-peer que combina replicação e erasure coding com sistema de cache /

Caetano, André Francisco Morielo. January 2017 (has links)
Orientador: Carlos Roberto Valêncio / Banca: Geraldo Francisco Donega Zafalon / Banca: Pedro Luiz Pizzigatti Correa / Resumo: Sistemas de gerenciamento de banco de dados, na sua essência, almejam garantir o armazenamento confiável da informação. Também é tarefa de um sistema de gerenciamento de banco de dados oferecer agilidade no acesso às informações. Nesse contexto, é de grande interesse considerar alguns fenômenos recentes: a progressiva geração de conteúdo não-estruturado, como imagens e vídeo, o decorrente aumento do volume de dados em formato digital nas mais diversas mídias e o grande número de requisições por parte de usuários cada vez mais exigentes. Esses fenômenos fazem parte de uma nova realidade, denominada Big Data, que impõe aos projetistas de bancos de dados um aumento nos requisitos de flexibilidade, escalabilidade, resiliência e velocidade dos seus sistemas. Para suportar dados não-estruturados foi preciso se desprender de algumas limitações dos bancos de dados convencionais e definir novas arquiteturas de armazenamento. Essas arquiteturas definem padrões para gerenciamento dos dados, mas um sistema de armazenamento deve ter suas especificidades ajustadas em cada nível de implementação. Em termos de escalabilidade, por exemplo, cabe a escolha entre sistemas com algum tipo de centralização ou totalmente descentralizados. Por outro lado, em termos de resiliência, algumas soluções utilizam um esquema de replicação para preservar a integridade dos dados por meio de cópias, enquanto outras técnicas visam a otimização do volume de dados armazenados. Por fim, ao mesmo tempo que são... / Abstract: Database management systems, in essence, aim to ensure the reliable storage of information. It is also the task of a database management system to provide agility in accessing information. In this context, it is of great interest to consider some recent phenomena: the progressive generation of unstructured content such as images and video, the consequent increase in the volume of data in digital format in the most diverse media and the large number of requests by users increasingly demanding. These phenomena are part of a new reality, named Big Data, that imposes on database designers an increase in the flexibility, scalability, resiliency, and speed requirements of their systems. To support unstructured data, it was necessary to get rid of some limitations of conventional databases and define new storage architectures. These architectures define standards for data management, but a storage system must have its specificities adjusted at each level of implementation. In terms of scalability, for example, it is up to the choice between systems with some type of centralization or totally decentralized. On the other hand, in terms of resiliency, some solutions utilize a replication scheme to preserve the integrity of the data through copies, while other techniques are aimed at optimizing the volume of stored data. Finally, at the same time that new network and disk technologies are being developed, one might think of using caching to optimize access to what is stored. This work explores and analyzes the different levels in the development of distributed storage systems. This work objective is to present an architecture that combines different resilience techniques. The scientific contribution of this work is, in addition to a totally decentralized suggestion of data allocation, the use of an access cache structure with adaptive algorithms in this environment / Mestre
205

Um modelo para manutenção de esquema e de dados em data warehouses implementados em plataformas móveis. / A model to schema and data maintenance in data warehouses implemented at mobile platforms.

Isabel Cristina Italiano 11 June 2007 (has links)
O presente trabalho propõe uma arquitetura de utilização de Data Warehouses em computadores móveis, descreve os componentes desta arquitetura (dados e processos) que permite o sincronismo dos dados baseado em metadados e limitado ao escopo de acesso de cada usuário. As estruturas de dados e os processos que compõem a arquitetura proposta são reduzidos a problemas conhecidos e já solucionados, justificando sua viabilidade. Além disso, o presente trabalho também fornece diretrizes para avaliar a complexidade e o impacto causados por alterações de esquema no Data Warehouse central que devem ser refletidas nos data marts localizados nas plataformas móveis. A avaliação da complexidade e impacto das alterações nos esquemas do Data Warehouse pode auxiliar os administradores do ambiente a planejar a implementação destas alterações, propondo melhores alternativas no caso de alterações de esquema mais complexas e que causem um impacto maior no ambiente. A importância do trabalho está relacionada a casos reais de necessidade de evolução nas bases de dados analíticas (Data Warehouse) em computadores móveis, nos quais os usuários mantêm seu próprio subconjunto de dados do Data Warehouse para apoiar os processos de negócios. / This work presents an architecture for using Data Warehouses in mobile computers and describes the architecture components (data and processes) that allow the data synchronism based on metadata and restricted to the scope of access for each user. The data structures and the processes composing the architecture are reduced to already known and solved problems, justifying its feasibility. Besides, this work also provides the guidelines to evaluate the complexity and impact caused by changes of schema in the central Data Warehouse that must be reflected in the data marts located in the mobile platforms. The analysis of the complexity and impact of the changes made to the schemas may help environment administrators to plan these changes and propose better alternatives when dealing with more complex schema changes causing a greater impact on the environment. The relevance of this work is related to real cases that require evolution of analytical databases (Data Warehouse) in mobile computers in which the users keep their own subset of Data Warehouse information to support their business processes.
206

Desenvolvimento de sistema para gerenciamento de dados de pesquisa

Ferrasi, Emerson Carlos Sarti [UNESP] 26 March 2013 (has links) (PDF)
Made available in DSpace on 2014-08-13T14:50:42Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-03-26Bitstream added on 2014-08-13T18:00:59Z : No. of bitstreams: 1 000749626.pdf: 1688437 bytes, checksum: 2b28b4ac1e97ecb344c8f9df88335d2d (MD5) / Os avanços biotecnológicos vêm contribuindo para a excelência na qualidade das pesquisas científicas, bem como para o aumento exponencial dos dados gerados. A análise e interpretação dos dados obtidos em pesquisa científica é uma atividade essencial quando se busca gerar conhecimento biológico de excelência. A informática vem se destacando como uma ferramenta essencial no gerenciamento de dados e processos administrativos. Os órgãos públicos de financiamento têm estimulado a colaboração entre grupos de pesquisa situados em instituições diferentes, muitas vezes bem distantes geograficamente, possibilitado a criação de “grupos de pesquisa virtuais”, onde a troca de informações e discussão de resultados se faz de maneira tão eficiente quanto o seria em grupos reunidos in loco. É comum na pesquisa científica, a condução de diferentes análises laboratoriais em uma mesma casuística, delineando projetos com abordagens diferentes. Entretanto, por repetidas vezes, tais dados, embora sejam referentes à mesma casuística, nem sempre são analisados em conjunto. Tal situação representa perda de informações biológicas preciosas na construção do conhecimento científico. Nesse contexto, faz-se importante o desenvolvimento de ferramentas computacionais para o armazenamento e gerenciamento dos dados gerados, de forma a otimizar as análises dos resultados obtidos ao longo de pesquisas científicas diversas, porém conduzidas em uma mesma amostragem. O presente estudo teve como objetivo principal o desenvolvimento de um Software para o gerenciamento de amostras geradas a partir de Projetos de Pesquisa na Área de Ciências da Saúde. O desenvolvimento do Sistema teve como ponto de partida a análise de requisitos dos dados necessários para elaboração de um banco de dados, bem como os procedimentos de acesso às informações. Os pesquisadores envolvidos nos projetos científico foram consultados ... / The biotechnological advances have contributed to the excellence in the quality of scientific research, as well as the exponential growth of data generated. The analysis and interpretation of data in scientific research is an essential activity when it seeks to generate biological knowledge of excellence. Information technology has emerged as an essential tool in data management and administrative processes. Public agencies funding have stimulated collaboration between research groups located in different institutions, often far apart geographically, enabled the creation of virtual research groups, where the exchange of information and discussion of results is done as efficiently as would be gathered in groups spot. It is common in scientific research, conducting various laboratory tests on a single sample, outlining projects with different approaches. However, by repeatedly such data, although they refer to the same sample, are not always analyzed together. This situation represents a loss of valuable biological information in the construction of scientific knowledge. In this context, it is important to develop computational tools for the storage and management of data generated in order to optimize the analysis of the results obtained over various scientific researches, but conducted in the same sample. This study aimed to develop a software for managing samples generated from research projects in the area of Health Sciences Development System had as its starting point the analysis of the data requirements necessary for development of a database, as well as the procedures for access to information. The researchers involved in scientific projects were consulted on the information model to manage. The system developed in this study can be considered an innovative tool in the area of Health Research as it is a software that evolves according to the needs of new research groups and obviate the need for intervention by IT professionals ...
207

Desenvolvimento de sistema para gerenciamento de dados de pesquisa /

Ferrasi, Emerson Carlos Sarti. January 2013 (has links)
Orientador: Maria Inês de Moura Campos Pardini / Banca: Regina Celia Baptista Belluzzo / Banca: Célia Regina Nogueira / Resumo: Os avanços biotecnológicos vêm contribuindo para a excelência na qualidade das pesquisas científicas, bem como para o aumento exponencial dos dados gerados. A análise e interpretação dos dados obtidos em pesquisa científica é uma atividade essencial quando se busca gerar conhecimento biológico de excelência. A informática vem se destacando como uma ferramenta essencial no gerenciamento de dados e processos administrativos. Os órgãos públicos de financiamento têm estimulado a colaboração entre grupos de pesquisa situados em instituições diferentes, muitas vezes bem distantes geograficamente, possibilitado a criação de "grupos de pesquisa virtuais", onde a troca de informações e discussão de resultados se faz de maneira tão eficiente quanto o seria em grupos reunidos in loco. É comum na pesquisa científica, a condução de diferentes análises laboratoriais em uma mesma casuística, delineando projetos com abordagens diferentes. Entretanto, por repetidas vezes, tais dados, embora sejam referentes à mesma casuística, nem sempre são analisados em conjunto. Tal situação representa perda de informações biológicas preciosas na construção do conhecimento científico. Nesse contexto, faz-se importante o desenvolvimento de ferramentas computacionais para o armazenamento e gerenciamento dos dados gerados, de forma a otimizar as análises dos resultados obtidos ao longo de pesquisas científicas diversas, porém conduzidas em uma mesma amostragem. O presente estudo teve como objetivo principal o desenvolvimento de um Software para o gerenciamento de amostras geradas a partir de Projetos de Pesquisa na Área de Ciências da Saúde. O desenvolvimento do Sistema teve como ponto de partida a análise de requisitos dos dados necessários para elaboração de um banco de dados, bem como os procedimentos de acesso às informações. Os pesquisadores envolvidos nos projetos científico foram consultados ... / Abstract: The biotechnological advances have contributed to the excellence in the quality of scientific research, as well as the exponential growth of data generated. The analysis and interpretation of data in scientific research is an essential activity when it seeks to generate biological knowledge of excellence. Information technology has emerged as an essential tool in data management and administrative processes. Public agencies funding have stimulated collaboration between research groups located in different institutions, often far apart geographically, enabled the creation of "virtual research groups", where the exchange of information and discussion of results is done as efficiently as would be gathered in groups spot. It is common in scientific research, conducting various laboratory tests on a single sample, outlining projects with different approaches. However, by repeatedly such data, although they refer to the same sample, are not always analyzed together. This situation represents a loss of valuable biological information in the construction of scientific knowledge. In this context, it is important to develop computational tools for the storage and management of data generated in order to optimize the analysis of the results obtained over various scientific researches, but conducted in the same sample. This study aimed to develop a software for managing samples generated from research projects in the area of Health Sciences Development System had as its starting point the analysis of the data requirements necessary for development of a database, as well as the procedures for access to information. The researchers involved in scientific projects were consulted on the information model to manage. The system developed in this study can be considered an innovative tool in the area of Health Research as it is a software that evolves according to the needs of new research groups and obviate the need for intervention by IT professionals ... / Mestre
208

Repositório web para compartilhamento, reuso, versionamento e evolução de conteúdos binários : modelagem e análise por Redes de Petri coloridas / Web repository for sharing, reuse, versioning and evolution of binary content: modeling and analysis of colored Petri Nets

Furtado Júnior, Corneli Gomes 12 1900 (has links)
FURTADO JÚNIOR, C. G. Repositório web para compartilhamento, reuso, versionamento e evolução de conteúdos binários : modelagem e análise por Redes de Petri coloridas. 2011. 149 f. Dissertação (Mestrado em Engenharia de Teleinformática) – Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2011. / Submitted by Marlene Sousa (mmarlene@ufc.br) on 2012-01-24T18:59:46Z No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2012-01-24T19:00:13Z (GMT) No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) / Made available in DSpace on 2012-01-24T19:00:13Z (GMT). No. of bitstreams: 1 2011_dis_cgfurtadojunior.pdf: 8625571 bytes, checksum: f577746d0f88ba98e57773c1b39290ee (MD5) Previous issue date: 2011-12 / The free availability of digital content has fairly increased on the Web. Many of these contents can be modified, reused and adapted for specific purposes. Although diferent resources for providing and storing contents are widely available, there is a lack of tools suitable to versioning control of binary content on the Internet. In addition, most solutions to persistent data on the Web are based on Relational DataBase (RDB). As a simple solution, we can modify the original data and store new records in the tables of a database. However, this leads to a possible ineficiency due to a potentially large amount of redundant information. Nevertheless, in order to overcome this issue, it is possible to adapt versioning tools, also known as Control Version System (CVS), to the solution. These tools are specialized in storage of the modified regions of documents. This process is known as "deltification". However, regarding access time and gathering data, a CVS is less eficient than a DataBase Management System (DBMS). Therefore, if a CVS is used as a solution for data persistence, this can reduce the overall performance of the application. Aiming at designing a repository of versioned binary content on the Web, with eficient management for both accessing and storing binary data, this work analyzes the performance of free DBMSs most frequently used and a CVS, which we consider being the most suitable to the addressed repository. The attained results were the basis for the specification of thearchitecture of a repository that relies on a hybrid approach. The resulting approach lies in the simultaneous use of a DBMS and a CVS. We took into account features and runtime performance of both tools for each operation required in the final application. Then, we designed models on colored Petri Nets, which allowed the simulation and analysis of the aimed architecture. As a result, we present the e ciency of the proposed architecture against a traditional storage approach. / A livre disponibilização de conteúdos digitais vem crescendo de maneira expressiva na Web. Muitos desses conteúdos podem ser modificados, reutilizados e adaptados para propósitos específicos. Embora muitos recursos para armazenamento e disponibilização de conteúdos sejam bastante difundidos, não se percebem na Internet repositórios que possuam instrumentos apropriados para o controle de versões de conteúdo binário (CB). A maioria das soluções encontradas para a persistência de dados na Web é baseada em Bancos de Dados Relacionais (BDR). A simples adição de modificações aos dados originais e armazenamento em novos registros de tabelas em um BD pode ser ineficiente devido a uma quantidade potencialmente grande de informações redundantes. É possível, para este fim, adaptar ferramentas de versionamento conhecidas por Sistemas de Controle de Versão (SCV), ferramentas especializadas no armazenamento de regiões modificadas de documentos. Entretanto, um SCV é menos eficiente do que os Sistemas Gerenciadores de Bancos de Dados (SGBD) em tempo de acesso e recuperação de informaações, o que pode comprometer o desempenho da aplicação, caso seja adotado como solução para a persistência de dados. Visando conceber um repositório de CBs versionados na Web, com gestão eficiente tanto para o acesso como para o armazenamento de CBs, neste trabalho é analisado o desempenho dos SGBDs gratuitos mais utilizados na atualidade e de um SVC que se revelou o mais adequado ao escopo deste trabalho. Os resultados obtidos serviram de base para a especificação da arquitetura de um repositório que se apoia em uma abordagem híbrida, com o uso simultâneo de um SGBD e um SVC. Em seguida, foi realizada a modelagem por Redes de Petri coloridas, o que permitiu a simulação e a análise da arquitetura concebida, demonstrando-se a maior eficiência da arquitetura proposta em relação a uma abordagem de armazenamento tradicional.
209

Uma Abordagem para a Modelagem de Desempenho e de Elasticidade para Bancos de Dados em Nuvem / A performance modeling and elasticity approach for cloud nosql databases

Farias, Victor Aguiar Evangelista de January 2016 (has links)
FARIAS, Victor Aguiar Evangelista de. Uma Abordagem para a Modelagem de Desempenho e de Elasticidade para Bancos de Dados em Nuvem. 2016. 73 f. Dissertação (mestrado em computação)- Universidade Federal do Ceará, Fortaleza-CE, 2016. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-03-31T18:48:05Z No. of bitstreams: 1 2016_dis_vaefarias.pdf: 2901674 bytes, checksum: 2defc02493d2e15c69317aca46126bb3 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-04-25T12:33:53Z (GMT) No. of bitstreams: 1 2016_dis_vaefarias.pdf: 2901674 bytes, checksum: 2defc02493d2e15c69317aca46126bb3 (MD5) / Made available in DSpace on 2016-04-25T12:33:53Z (GMT). No. of bitstreams: 1 2016_dis_vaefarias.pdf: 2901674 bytes, checksum: 2defc02493d2e15c69317aca46126bb3 (MD5) Previous issue date: 2016 / Cloud computing is a successful, emerging paradigm that supports on-demand services. With the exponential growth of data generated by present applications, NoSQL databases which are inherently distributed systems have been used to manage data in the cloud. In this scenario, it is fundamental for cloud providers to guarantee Quality of Service (QoS) by satisfying tho Service Level Agreement (SLA) contract while reducing the operational costs related to both overprovisioning and underprovisioning. Thus QoS mechanisms can greatly benefit from a predictive model that estimates SLA-based performance metrics for a given cluster and workload configuration. Therewith, elastic provisioning strategies can benefit from these predictive models to provide a reliable mechanism to add and remove resources reliably. In this work, we present a generic performance modeling for NoSQL databases in terms of SLA-based metrics capable of capturing non-linear effects caused by concurrency and distribution aspects. Moreover we present a elastic provisioning mechanism based on performance models. Results of experimental evaluation confirm that our performance modeling can accurately estimate the performance under a wide range of workload configurations and also that our elastic provisioning approach can ensure QoS while using resources efficiently. / A computação em nuvem é um paradigma de computação emergente e bem sucedido que oferece serviços por demanda. Com o crescimento exponencial da quantidade de dados utilizados pelas aplicações atuais, os bancos de dados NoSQL, que são sistemas inerentemente distribuídos, têm sido usados para gerenciar dados na Nuvem. Nesse cenário, é fundamental que os provedores de serviços em nuvem garantam a Qualidade de Serviço (QoS) por meio do cumprimento do contrato Service Level Agreement (SLA) enquanto reduz os custos operacionais relacionados a overprovisioning e underprovisioning. Mecanismos de QoS podem se beneficiar fortemente de modelos de desempenho preditivos que estimam o desempenho para uma dada configuração do sistema NoSQL e da carga de trabalho. Com isso, estratégias de elasticidade podem aproveitar esses modelos preditivos para fornecer meios de adicionar e remover recursos computacionais de forma mais confiável. Este trabalho apresenta uma abordagem para modelagem de desempenho genérica para banco de dados NoSQL em termos de métricas de desempenho baseadas no SLA capaz de capturar o efeitos não-lineares causados pelo aspectos de concorrência e distribuição. Adicionalmente, é apresentado um mecanismo de elasticidade para adicionar e remover nós sistema NoSQL baseado em modelos de desempenho. Resultados de avaliação experimental confirmam que a modelagem de desempenho estima as métricas de forma acurada para vários cenários de carga de trabalho e configurações do sistema. Por fim, a nossa estratégia de elasticidade é capaz de garantir a QoS enquanto utiliza os recursos de forma eficiente.
210

Uma arquitetura para acesso e integração de dados em sistemas sensíveis ao contexto

Oliveira, Natália Quirino de 29 October 2008 (has links)
Submitted by Priscila Oliveira (priscila.b.oliveira@ufes.br) on 2016-07-12T12:10:04Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) natalia quirino.pdf: 3413944 bytes, checksum: 63eac8e744eb630d21986ffeca190476 (MD5) / Approved for entry into archive by Patricia Barros (patricia.barros@ufes.br) on 2016-08-15T18:04:51Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) natalia quirino.pdf: 3413944 bytes, checksum: 63eac8e744eb630d21986ffeca190476 (MD5) / Made available in DSpace on 2016-08-15T18:04:51Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) natalia quirino.pdf: 3413944 bytes, checksum: 63eac8e744eb630d21986ffeca190476 (MD5) / Sistemas de integração de dados vêm sendo desenvolvidos na tentativa de fornecer aos usuários informações consolidadas com transparência de distribuição e formato de armazenamento, e sua presença vem se tornando crucial. Em um cenário de Computação Ubíqua, as aplicações manipulam novos tipos de dados, de natureza contextual e dinâmica, o que dificulta o processo de integração. Este trabalho propõe uma arquitetura conceitual para acesso e integração de dados em ambientes móveis e sensíveis ao contexto. Um estudo de caso em tele-medicina ilustra as funcionalidades da arquitetura proposta. / Data integration systems have been used for providing to the users information regardless of distribution and storage format, and their presence have became crucial on Information Technology. On a Ubiquitous Computing scenario, applications manipulate new types of data, with contextual and dynamic behavior, what makes integration process more difficult and complex. This work proposes a conceptual architecture for data access and integration for mobile and context-aware systems. A scenario on Tele medicine shows the advantages and functionalities of proposed architecture.

Page generated in 2.4086 seconds