• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

DBValTooi

Batista, Denerval Mendez 04 February 2011 (has links)
Resumo: A capacidade de armazenar, disponibilizar e proteger uma grande quantidade de dados confere aos bancos de dados papel de grande importância na maioria das modernas organizações, sejam elas grandes ou pequenas. E essencial que os sistemas de banco de dados funcionem corretamente e apresentem desempenho aceitável. Diante da importância da integridade e da consistência das informações a serem armazenadas nos sistemas de banco de dados, técnicas específicas para testar as bases de dados, principalmente antes de serem povoadas, respondem a uma necessidade muitas vezes vital. Nesse sentido, este trabalho apresenta um modelo de processo de validação de projeto, que tem como objetivo principal aumentar a qualidade e a confiabilidade dos projetos de banco de dados. A Ferramenta DBValTool, que pode ser utilizada em várias etapas do modelo proposto, foi desenvolvida para fornecer o apoio necessário ao teste de bases de dados, buscando proporcionar um aumento da qualidade e uma redução de tempo e de custo durante a atividade de teste. O uso do modelo proposto e da Ferramenta DBValTool, em estudos de casos realizados, apresentou, como se esperava inicialmente, contribuições ao processo de teste e de validação do projeto.
32

Aplicação de integração de banco de dados visando controle de acesso centralizado

Barros, Antonio Rodrigues 25 April 2011 (has links)
Resumo: O principal propósito de integração de base de dados, bens importantes para qualquer organização, é proporcionar a visão integrada dos mesmos. A integração,aliada aos conceitos de segurança da informação, fornece rico instrumental para gestão de identidade, que se configura como base para os processos de controle de acesso. Com foco nesses aspectos aspectos, a pesquisa é desenvolvida, introduzos principais conceitos e arquiteturas de integração de banco de dados heterogêneos, discorre sobre questões de segurança da informação, controle de acesso e gestão de identidade. Apresenta como proposta um modelo de controle de acesso centralizado, tendo como suporte procedimentos de integração de base de dados, mecanismos de segurança da informação e gestão de identidades. A proposta foi viabilizada por meio da implementação de um protótipo de autenticação centralizada baseado em single sign-on e integração de três bases de dados institucionais para compor um diretório de contas de usuários. Para a implementação e testes foi utilizada a infraestrutura de autenticação Shibboleth, p ssibilitando a simulação de três aplicações distintas, compartilhando o mesmo ambiente seguro de autenticação. Por fim, presenta uma proposta de gestão deidentidades, elaborada com base em dois estudos exploratórios, realizados na Universidade Federal do Paraná, no ano de 2010, um para analisar o perfil dos usuários em relação ao so de conceitos de segurança da informação, e outro para identificar possíveis falhas nos processos de controle de acesso dos principais sistemas de informação e serviços de comunicação.
33

Modelo de dados para um Pipeline de seqüenciamento de alto desempenho transcritômico

Huacarpuma, Ruben Cruz 01 March 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de CIências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Sabrina Silva de Macedo (sabrinamacedo@bce.unb.br) on 2012-07-18T14:03:22Z No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-07-30T12:35:11Z (GMT) No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / Made available in DSpace on 2012-07-30T12:35:11Z (GMT). No. of bitstreams: 1 2012_RubemCruzHuacarpuma.pdf: 2198938 bytes, checksum: 7873175586685ed25fd99884e923ad63 (MD5) / O rápido avanço nas técnicas de sequenciamento de alto desempenho de fragmentos de DNA/RNA criou novos desa os computacionais na área de bioinformática. Um desses desa os é administrar o enorme volume de dados gerados pelos sequenciadores automáticos, particularmente o armazenamento e a análise desses dados processados em larga escala. A existência de diferentes formatos de representação, terminologia, estrutura de arquivos e semânticas, faz muito complexa a representação e administração desses dados. Neste contexto, um modelo de dados para representar, organizar e garantir o acesso aos dados biológicos é essencial para suportar o trabalho dos pesquisadores do campo da biologia, quando fazendo uso de pipelines de sequenciamento de alto desempenho. Este trabalho propõe tanto um modelo de dados conceitual, como também seu respectivo esquema relacional, permitindo a representação e o gerenciamento de um pipeline de sequenciamento de alto desempenho para projetos transcritômicos no intuito de organizar e armazenar de maneira simples e e ciente os dados gerados em cada fase da análise do pipeline. Nesta dissertação, trabalhamos com pipelines de sequenciamento de alto desempenho com três fases: ltragem, mapeamento e análise. Para validar nosso modelo, apresentamos dois estudos de casos para identi car a expressão diferencial de genes usando dados de sequenciamento de alto desempenho transcritômico. Estes estudos de caso mostraram que introduzir o modelo de dados, e o esquema correspondente, tornou o pipeline mais e ciente, organizado, para dar suporte ao trabalho dos biólogos envolvidos em um projeto de transcritoma. _________________________________________________________________________________________ ABSTRACT / The rapid advances in high-throughput sequencing techniques of DNA/RNA fragments created new computational challenges in bioinformatics. One of these challenges is to manage the enormous volume of data generated by automatic sequencers, specially storage and analysis of these data processed on large scale. The existence of representation format, terminology, _le structure and semantics, becomes very complex representation and management of such data. In this context, a data model to represent, organize and provide access to biological data is essential to support the researchers works into biology_eld when using high-throughput sequencing. This work proposes a conceptual model as well as its database schema to representand manage a high-throughput transcriptome pipeline in order to organize and store in a simple and efficient way data generated in each pipeline phase. In this dissertation, we work with three phases high-throughput sequencing pipeline: _ltering, mapping and analysis. In order to validate our model, we present two case studies both having the objective of identifying deferentially expressed genes using high-throughput sequencing transcriptome data. These case studies showed that uses a data model, and its database schema, became the pipeline more efficient, organized, and support the biologists works involved in a transcriptome project.
34

Proveniência de dados em workflows de bioinformática

Paula, Renato de 11 July 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2013-04-02T15:07:00Z No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-04-03T14:02:55Z (GMT) No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Made available in DSpace on 2013-04-03T14:02:55Z (GMT). No. of bitstreams: 1 2012_RenatodePaula.pdf: 7698577 bytes, checksum: dc8fd7334d6b68f154510b6f7fc82753 (MD5) / Avanços tecnológicos, tanto em equipamentos quanto em algoritmos, têm tornado a execução de experimentos científicos cada vez mais rápida e eficiente. Isso permite que os cientistas executem mais experimentos e possam compará-los entre si, o que traz maior acurácia às análises. Porém, a quantidade de dados que devem ser tratados aumenta a cada novo experimento executado, o que dificulta a identificação da origem dos dados e como os mesmos foram transformados em cada experimento. Assim, tem-se a necessidade de novas ferramentas que tornem possível preservar, não só as conclusões de um experimento científico, mas também a origem dos dados utilizados e as condições e parâmetros com os quais foram executados. Estudos recentes mostram que a utilização de modelos de proveniência de dados facilita o gerenciamento dos dados tanto em ambiente científico quanto naqueles disponibilizados pela internet. Uma importante área para o uso de proveniência de dados é o da bioinformática, principalmente em projetos genoma e transcritoma de alto desempenho, visto que seus experimentos geram grande volume de dados e seus processos podem ser executados diversas vezes com diferentes ferramentas, dados e parâmetros. Neste trabalho propomos a utilização de uma estrutura de proveniência de dados baseada no modelo PROV-DM para experimentos em projetos de bioinformática a fim de permitir que os cientistas possam trabalhar com seus experimentos em detalhes e, quando necessário, possam consultá-los e reexecutá-los de forma mais planejada e controlada. _____________________________________________________________________________________________________________________________ ABSTRACT / Technological Advances, both in equipment and algorithms, have made the execution of scientific experiments increasingly faster and more e efficient. This allows scientists to execute more experiments and compare them, generating greater accuracy in analyses. However, the great quantity of data to be treated increases with each new experiment performed, which makes it difficult to identify the origin of data and how they were transformed in each experiment. Thus, there is a pressing need for new tools that make possible the preservation of, not only conclusions of scientific experiments, but also the origin of data used and the conditions and parameters with which each were performed. Recent studies show that the use of data provenance models facilitates the management of data, both in the scientific environment and those available on the internet. An important area for the use of data provenance is in bioinformatics, mainly in genome and high performance transcriptome projects, since these experiments generate a large volume of data and their process can be executed many times with different tools, data and parameters. In this work we propose the use of a data provenance structure based on the model PROV-DM for experiments in bioinformatics projects with the objective of allowing scientists to work with their experiments in ne detail, and, when necessary, consult them or re-execute them in a more planned and controlled way.
35

Protein Locator : um método para consolidação de resultados na identificação de proteínas

Rodrigues, Higor de Souza 30 July 2008 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2008. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-04-18T14:13:30Z No. of bitstreams: 1 DISSERTACAO_2008_HigordeSRodrigues.pdf: 5051692 bytes, checksum: 7aa9d05ff0ab6e2222f3573941a1df11 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2011-04-21T18:22:24Z (GMT) No. of bitstreams: 1 DISSERTACAO_2008_HigordeSRodrigues.pdf: 5051692 bytes, checksum: 7aa9d05ff0ab6e2222f3573941a1df11 (MD5) / Made available in DSpace on 2011-04-21T18:22:24Z (GMT). No. of bitstreams: 1 DISSERTACAO_2008_HigordeSRodrigues.pdf: 5051692 bytes, checksum: 7aa9d05ff0ab6e2222f3573941a1df11 (MD5) / Um dos papéis mais importantes da Bioinformática proteômica pode ser descrito como o tratamento do conjunto de dados gerado a partir do sequenciamento de proteínas, construindo de forma eficaz e organizada, informações inteligíveis para os pesquisadores dessa área. Existem diversos bancos de dados de seqüências, como o EMBL, o SwissProt e o UniProt, bem como diferentes programas para realizar buscas por similaridades nestes bancos de dados, como o Mascot, o Fasta, o Blast e AACompIdent. O objetivo deste estudo foi construir um sistema inédito que apresente de maneira probabilística a similaridade entre proteínas que constituem os bancos de dados pré-existentes e os dados experimentais fornecidos pelos pesquisadores. A partir da inserção dos dados, o sistema, chamado Protein Locator, busca as seqüências similares nos programas já existentes, e utiliza o algoritmo QFAST de combinação de pvalores e também o algoritmo PLscore, uma nova versão do QFAST proposto por este estudo, para a combinação de todos os resultados obtidos. Os algoritmos realizam a combinação das probabilidades dos resultados fornecidos pelos programas de identificação e o Protein Locator apresenta ao usuário os valores originais de cada programa e o valor consolidado pela combinação dos resultados, sendo formado pelo identificador da proteína e a probabilidade de erro do match. Para a validação do método de combinação de resultados e do algoritmo PLscore, foram realizadas pesquisas de identificação de 18 conjuntos de dados de experimentos teóricos com proteínas que simularam seu seqüenciamento, análise de composição de aminoácidos e obtenção da lista de massa de peptídeos. Em 9 desses experimentos, foram incluídos desvios laboratoriais e nos outros 9 foram utilizadas as informações completas. Em 14 dos 18 resultados, a combinação dos dados possibilitou o aumento na acurácia do resultado; em 4 casos, não houve mudanças nas conclusões das pesquisas e em nenhum caso houve piora dos resultados. O tempo entre o armazenamento de informações das pesquisas e a espera pelos resultados combinados foi de aproximadamente 30 minutos, bastante inferior ao tempo medido para se realizar um experimento semelhante de forma manual, cerca de 3 horas. ______________________________________________________________________________ ABSTRACT / The analysis of protein sequencing data is one of the most important roles of proteomic bioinformatics. In addition, bioinformatics organizes data in an optimized way to be used by researches in this area. There are some protein databases, such as EMBL, SwissProt and Uniprot with software to search for sequencing similarities such as Mascot, Fasta, Blast and AACompIdent. The aim of this study was to create a new system to calculate statistical similarity degree between proteins described in databases and experimental data. The system, called Protein Locator, compares experimental data with sequences through the preexisting software and uses both the QFAST p-value combination algorithm and the PLscore algorithm (a new version of QFAST proposed by this study) to combine results. The algorithms combine probability between the results from the sequences search software and Protein Locator shows the original pvalues from each software, the p-value obtained from results combination, and also the protein identifier and the probability of match. To evaluate the results combination method and the PLscore algorithm, we have used 18 data collections from theoretical experiments in which protein sequencing, analysis of amino acids composition and peptides mass were simulated. In 9 of these experiments, we have included the laboratory error and in the other 9 we have used the complete data. In 14 out the 18 results, data combination method increased accuracy; in the other 4, results were equivalent to those found without combination. Combination of results and protein identification required 30 minutes from laboratory data insertion while manual search would usually require approximating 3 hours.
36

Estudo comparativo de desempenho em ambiente tradicional e virtualizado aplicado a banco de dados em plataforma X86 / Comparative study of performance in traditional and virtualized environments applied to database in X86 plataform

Neiva, Adriana Silva 30 July 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2010. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2011-05-02T14:18:25Z No. of bitstreams: 1 2010_AdrianaSilvaNeiva.pdf: 1474012 bytes, checksum: f28791658ed66c4220f7be93f32ae233 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2011-05-25T02:10:00Z (GMT) No. of bitstreams: 1 2010_AdrianaSilvaNeiva.pdf: 1474012 bytes, checksum: f28791658ed66c4220f7be93f32ae233 (MD5) / Made available in DSpace on 2011-05-25T02:10:00Z (GMT). No. of bitstreams: 1 2010_AdrianaSilvaNeiva.pdf: 1474012 bytes, checksum: f28791658ed66c4220f7be93f32ae233 (MD5) / Esta dissertação de mestrado apresenta um estudo comparativo de desempenho em ambiente tradicional e virtualizado aplicado a banco de dados em plataforma x86. O objetivo deste trabalho é identificar a sobrecarga de uso de recursos computacionais em banco de dados decorrente da virtualização. Por meio de estudo comparativo foram realizados testes e análises para identificar o real impacto da camada de virtualização em relação à capacidade de tratar transações em banco de dados. _________________________________________________________________________________ ABSTRACT / This dissertation presents a comparative study of performance in traditional and virtualized servers applied to the database on x86 platform. The objective is to identify the overhead of using computing resources in the database due to virtualization. Through comparative study tests and analysis were conducted to identify the real impact of virtualization layer over the ability to handle transactions in the database.
37

Análise e aperfeiçoamento de benchmark OLTP para avaliação de desempenho em SGBD

PESSOA, Fábio Ávila Rêgo January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:54Z (GMT). No. of bitstreams: 2 arquivo5704_1.pdf: 1036262 bytes, checksum: c782a01b6c27ce9c29f24861355eac34 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / Resumo: Medir o desempenho de ambientes de missão crítica é uma tarefa importante para consumidores e fornecedores de software e hardware. O desenvolvimento de metodologias (ou benchmarks) que viabilizem a comparação do desempenho conjunto de software e hardware foi objeto de estudo na comunidade de Banco de Dados, principalmente nos anos 80 e 90. Nos últimos 20 anos, foram propostos benchmarks que propõem métricas relevantes ao negócio do usuário final, tais como número de transações realizadas por intervalo de tempo e custo de cada transação. Muitas vezes, estes benchmarks modelam o funcionamento de uma aplicação completa, e têm destaque na mídia em anúncios de marketing dos fornecedores de hardware e software, com o objetivo de demonstrar desempenho superior ao de produtos concorrentes. Apesar da importância dos benchmarks para diversas áreas, não há trabalhos de pesquisa que realizam avaliações críticas de benchmarks, há poucos resultados experimentais mostrando possíveis melhorias nos benchmarks, e este trabalho fica sempre confinado nas organizações de benchmark. Mesmo com a abertura das especificações e resultados, uma análise mais crítica e minuciosa pode revelar pontos de melhoria nos benchmarks e nos seus processos de auditoria, execução e publicação. Um processo de benchmark dos benchmarks é importante para garantir a qualidade, credibilidade e aplicabilidade dos benchmarks ao longo do tempo. Um trabalho de pesquisa sem conflito de interesses com fabricantes dos produtos envolvidos mostra-se bastante adequado para este fim. O objetivo deste trabalho é proporcionar uma análise crítica do TPC-C, benchmark OLTP padrão de indústria. São propostas melhorias simples na implementação do benchmark, com o objetivo de torná-lo mais popular e adequado ao hardware tipicamente utilizado para sistemas OLTP na realidade atual. É proposta uma consolidação de conceitos em relação aos requisitos e qualidade de um benchmark, sugerindo um novo agrupamento e conceituação para proporcionar um melhor entendimento dos termos utilizados. Também é relatado como ocorre uma publicação TPC-C de acordo com as especificações oficiais, sugerindo pontos de melhoria no processo de publicação e auditoria do resultado. O relato é baseado em uma publicação real conduzida por um projeto de pesquisa no Centro de Informática/UFPE.
38

Um modelo de arquitetura para sistemas gerenciadores de dados na Web

OLIVEIRA, Lairson Emanuel Rodrigues de Alencar 03 March 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-21T22:07:46Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Lairson Emanuel Rodrigues de Alencar Oliveira.pdf: 5129050 bytes, checksum: 566fd5b3e1493b6e1691d7e9ff17cfaa (MD5) / Made available in DSpace on 2018-06-21T22:07:46Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Lairson Emanuel Rodrigues de Alencar Oliveira.pdf: 5129050 bytes, checksum: 566fd5b3e1493b6e1691d7e9ff17cfaa (MD5) Previous issue date: 2017-03-03 / FACEPE / A grande quantidade de dados disponível na Web, juntamente com a facilidade de acesso e representação desses dados, criam novos desafios tanto para quem deseja publicar e compartilhar dados na Web quanto para os que desejam usar tais dados. De modo geral, não existe um conhecimento prévio entre os interesses de quem publica os dados, os produtores, e os interesses de quem consome os dados, os consumidores. Nesse contexto, recentemente foi proposta, pelo W3C, uma recomendação para Dados na Web, que busca um entendimento comum entre os produtores e os consumidores e discursa sobre diferentes aspectos relacionados ao compartilhamento de dados na Web, como formatos de dados, acesso, identificadores e metadados. Ao longo dos anos, várias soluções foram desenvolvidas objetivando a publicação e o compartilhamento desses dados na Web. No entanto, as soluções de publicação de dados atuais, que são responsáveis por prover catálogos de dados e manter a interface de comunicação entre os produtores e consumidores, não implementam boa parte das orientações propostas pelo W3C como boas práticas. Dado que existe uma carência de soluções que possibilitem o gerenciamento adequado dos dados compartilhados na Web, esta dissertação tem como principal objetivo propor um modelo de arquitetura para um Sistema de Gerenciamento de Dados na Web (SGDW). Pretende-se identificar os principais requisitos que um sistema desse tipo deve atender para prover soluções para as limitações encontradas. Além disso, é proposta uma coleção de serviços que visam facilitar a definição, criação, manutenção, manipulação e compartilhamento dos conjuntos de dados na Web entre diversos usuários e aplicações. / The large amount of data available on the Web along with the ease access and representation of these data create new challenges for those who wish to share data on the Web. In general, there is no prior knowledge between the interests of who share the data, called data producers, and the interests of who use, called data consumers. In this context, W3C proposed a recommendation, called Data on the Web Best Practices (DWBP), that aims a common understanding between data producers and data consumers. The DWBP deals with several aspects related to sharing data on the Web, such as data format, data access, data identifiers and metadata. Besides, over the years, a broad of solutions have been developed for the purpose of publishing and sharing data on the Web. However, current data publishing solutions, which are responsible for providing data catalogs and maintaining the communication interface between data producers and data consumers, do not implement much of the guidelines proposed by the DWBP. Given the lack of solutions that allow the management of shared data on the Web, this work has as main objective to propose an architectural model for a Data on the Web Management System (DWMS). We also identify the main requirements that a DWMS must meet to overcome the limitations of existing solutions. In addition, we developed a proof of concept and we propose a collection of services that aim to facilitate the definition, creation, maintenance, manipulation and sharing of datasets on the Web among users and applications.
39

Usando um serviço de mensageria criado com a API JMS para manter a consistência de dados em banco de dados relacionais distribuídos

LIMA JUNIOR, Rivaldo Guimarães de 12 May 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T19:49:40Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:25:17Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) / Made available in DSpace on 2018-08-03T19:25:18Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) Previous issue date: 2017-05-12 / De acordo com o Teorema CAP (Consistency, Availability e Partition Tolerance), não é possível alcançar, em um sistema distribuído, e ao mesmo tempo, as características de Consistência, Disponibilidade e Tolerância à Partição (em caso de falhas). Por conta dessa idéia, diversos sistemas de banco de dados em nuvem optaram por relaxar a consistência, priorizando a disponibilidade do serviço. Essa decisão apóia-se no fato de que para muitas aplicações inconsistência nos dados é aceitável quando se consegue a disponibilidade das mesmas, porém, para um número grande de aplicações, essa inconsistência pode representar prejuízos imensuráveis, como no caso de uma aplicação bancária consultando dados inconsistentes de seus clientes. Diante desse quadro se faz necessário investigar e explorar novas opções, que permitam a consistência dos dados, quando estes estão replicados e disponibilizados em nuvem, sem abrir mão da disponibilidade do serviço. Diante do exposto e considerando a Universidade Federal de Pernambuco (UFPE) interessada em replicar seus dados, formando uma nuvem privada, garantindo sua consistência, este trabalho propõe um modelo para manutenção de consistência de dados relacionais replicados, baseado na troca de mensagens entre a aplicação e as réplicas do banco de dados. Realizados testes de cadastros, alterações e exclusões no modelo proposto, foi verificado que o mesmo foi eficaz em manter três réplicas de um banco de dados consistentes entre si. / According to the CAP Theorem (Consistency, Availability e Partition Tolerance), it cannot be achieved in a distributed system, and at the same time, the characteristics of Consistency, Availability and Partition tolerance (in case of failures). Considering this idea, various cloud database systems have chosen to relax the consistency, prioritizing service availability. That decision is supported by the fact that for many applications data inconsistency is acceptable should such data be available. However, for a large number of applications, this inconsistency may cause great losses, as in the case of a banking application querying inconsistent data of their customers. Therefore, it is necessary to investigate and explore new options to allow mantaining data consistency, when such data are replicated and available in the cloud, without giving up service availability. Taking the above into consideration as well as that Federal University of Pernambuco (UFPE) is interested in replicating its data, forming a private cloud, ensuring their consistency, this work proposes a model to mantain consistency of replicated relational data, based on the exchange of messages between the application and the database replicas. After performing tests of registrations, changes and exclusions in the proposed model, it was verified that it was effective in keeping three replicates of a database consistent with each other.
40

Smartcluster: a metamodel of indicators for smart and human cities

AFONSO, Ricardo Alexandre 13 March 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T20:31:48Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ricardo Alexandre Afonso.pdf: 7029668 bytes, checksum: a2cadbe53da512082c8668f3c7c383d6 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:34:20Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ricardo Alexandre Afonso.pdf: 7029668 bytes, checksum: a2cadbe53da512082c8668f3c7c383d6 (MD5) / Made available in DSpace on 2018-08-03T19:34:20Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Ricardo Alexandre Afonso.pdf: 7029668 bytes, checksum: a2cadbe53da512082c8668f3c7c383d6 (MD5) Previous issue date: 2017-03-13 / FACEPE / Currently, there are several works on smart cities and the advances offered to the routine of its inhabitants and optimization of resources, however, there is still no consensus on the definition of the term "Smart Cities", nor their domains and indicators. The lack of a clear and widely usable definition, as well as the delimitation of domains and indicators makes it impossible to compare or measure cities in this context. It is very common for governments and private companies to redefine the concepts of Smart Cities and create models that meet only their interests. These models become isolated initiatives or serve as success cases for few domains of use. This work presents a proposal for a metamodel called SmartCluster, which was developed to allow uniformity in intelligent city models so that they can be used in any context and can be expanded at any time. The use of this metamodel will allow indicators drawn from public databases to serve to assist municipal managers in measuring, comparing and managing resources of smart cities. / Atualmente existem vários trabalhos sobre cidades inteligentes e os avanços oferecidos à rotina de seus habitantes e otimização de recursos, entretanto, ainda não existe um consenso sobre a definição do termo “Cidades Inteligentes”, nem de seus domínios e indicadores. A falta de uma definição clara e amplamente utilizável, bem como a delimitação de domínios e indicadores impossibilita comparar ou medir cidades nesse contexto. É muito comum que governos e empresas privadas redefinam os conceitos sobre Cidades Inteligentes e criem modelos que atendam somente aos seus interesses. Estes modelos acabam se tornando iniciativas isoladas ou servem como casos de sucesso para poucos domínios de uso. Por isso, esse trabalho apresenta uma proposta de um metamodelo chamado SmartCluster, que foi desenvolvido para permitir uma uniformidade nos modelos de cidades inteligentes de forma que possam ser utilizados em quaisquer contextos e possam ser ampliados a qualquer momento. A utilização deste metamodelo vai permitir que indicadores extraídos de bases de dados públicas possam servir para auxiliar os gestores municipais a medir, comparar e gerenciar recursos das cidades inteligentes.

Page generated in 0.0589 seconds