• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1609
  • 457
  • 422
  • 172
  • 114
  • 102
  • 61
  • 49
  • 40
  • 36
  • 29
  • 23
  • 21
  • 17
  • 16
  • Tagged with
  • 3655
  • 857
  • 806
  • 756
  • 608
  • 546
  • 420
  • 401
  • 392
  • 366
  • 310
  • 304
  • 298
  • 277
  • 265
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1161

Definição de um gerenciador para o modelo de dados temporal TF-ORM / Definition of a manager for a TF-ORM temporal data model

Hubler, Patricia Nogueira January 2000 (has links)
Há alguns anos, a necessidade de armazenar a história das informações e o período no qual as mesmas são válidas ou não no mundo real, está crescendo. As próprias leis vigentes no país fazem com que isto seja uma necessidade quando, por exemplo, criam uma tabela de tempo de validade para o armazenamento de documentos fiscais ou de recursos humanos. Neste âmbito destaca-se a importância do estudo de modelos de dados temporais que gerenciem este tipo de informação. Tais modelos definem a forma como as informações são organizadas, mantidas e recuperadas. A implementação destes modelos, entretanto, é realizada sobre bancos de dados (BD) convencionais, uma vez que ainda não existe um BD totalmente temporal. O mapeamento de um modelo temporal sobre um convencional não impede que sejam satisfeitas todas as necessidades de representação temporal, desde que seja realizado de forma coerente. As diferentes informações temporais que podem ser utilizadas para a representação de tempo são o tempo de transação e o tempo de validade. Quando se deseja uma representação completa da realidade, utilizam-se bancos de dados bitemporais, através dos quais é possível recuperar todas as informações passadas, presentes e futuras. Este trabalho apresenta o mapeamento de um modelo de dados bitemporal (modelo TF-ORM) para um SGBD convencional (Oracle). Este mapeamento compreende, além das informações temporais, todas as características do modelo, dentre as quais: classes e papéis, mensagens, regras, propriedades dinâmicas e estáticas. É apresentada, ainda, a definição de um gerenciador temporal, o qual busca automatizar o que é implementado. Complementando o estudo realizado, são apresentadas sugestões de operações a serem realizadas pelos desenvolvedores de aplicações temporais quando da manutenção das informações. As operações de inserção, atualização e remoção em uma base temporal são analisadas, independente do tipo de BD temporal implementado. Um estudo de caso é apresentado para validar todas as definições realizadas. / The need for storing the information’s history and the period in which they are still valid in the real world has been growing in the last few years. The very existing laws in the country make it necessary when, for instance, a validity temporal table is created for storing business or human resources documents. Therefore, the study of temporal data models which manage this kind of information has become very important. Such models define the way in which the information is organized, kept and recovered. The implementation of these models, though, is carried out over conventional data bases (DB), once there is no a totally temporal DB. The mapping of a temporal model over a conventional one allows all of its requirements to be met, as long as it is made coherently. The different temporal information that can be used for time representation are the transaction time and the validity time. Whenever a complete representation of the reality is wanted, bitemporal databases are used. These bases make it possible to recover all the past information as well as present and future information. This work presents the mapping of a temporal data model (TF-ORM model) for a conventional DBMS (Oracle). Besides the temporal information, this mapping comprehends all the model’s characteristics, such as: classes and roles, messages, rules, dynamic and static properties. It is also presented a definition of a temporal manager which aims at automating what is implemented. In addition to this study, suggestions of operations to be carried out by the developers of temporal applications for the maintenance of the information are presented. The operations of inserting, updating and removing on temporal base are analyzed, apart from the kind of DB implemented. A case study is presented in order to validate all the definitions made.
1162

Planejamento de moduladores de polimerização de microtúbulos com propriedades anticâncer, análise estrutural de macromoléculas e geração de uma base virtual de produtos naturais / Design of microtubule polymerization modulators with anticancer properties, structural analysis of macromolecules and development of a virtual database of natural products

Ricardo Nascimento dos Santos 19 November 2015 (has links)
Os trabalhos realizados e apresentados nesta tese de doutorado compreendem diversos estudos computacionais e experimentais aplicados ao planejamento de candidados a novos fármacos para o tratamento do câncer, de uma metodologia inovadora para investigar a formação de complexos proteicos e de uma base de compostos naturais reunindo parte da biodiversidade brasileira com a finalidade de incentivar e auxiliar a descoberta e o desenvolvimento de novos fármacos no país. No primeiro capítulo, são descritos estudos que permitiram a identificação e o desenvolvimento de novas moléculas com atividade anticâncer, através da integração de ensaios bioquímicos e métodos de modelagem molecular na área de química medicinal. Dessa forma, estudos de modelagem molecular e ensaios bioquímicos utilizando uma base de compostos disponibilizada pela colaboração com o Laboratório de Síntese de Produtos Naturais e Fármacos (LSPNF) da UNICAMP, permitiram identificar uma série de moléculas da classe ciclopenta-β-indóis como inibidores da polimerização de microtúbulos com considerável atividade anti-câncer. Estes compostos apresentaram-se capazes de modular a polimerização de microtúbulos em ensaios in vitro frente ao alvo molecular e a células cancerígenas, com valores de IC50 na faixa de 20 a 30 μM. Além disso, estudos experimentais permitiram identificar o sítio da colchicina na tubulina como a região de interação desta classe e ensaios de migração celular comprovaram sua atividade antitumoral. A partir dos resultados obtidos, estudos mais aprofundados de docagem e dinâmica molecular permitiram elucidar as interações moleculares envolvidas no processo de ligação à proteína tubulina, e a utilização destes modelos moleculares no planejamento, síntese e avaliação de uma nova série de compostos. Com base nos dados obtidos por estudos computacionais, modificações foram propostas e novos inibidores da polimerização de tubulina foram planejados, sintetizados e avaliados, resultando na identificação de um inibidor de elevada atividade e perfil farmacodinâmico superior dentre as moléculas planejadas, com IC50 de 5 μM. Concomitantemente, ensaios de citotoxicidade in vitro demostraram uma interessante seletividade destes compostos por células cancerígenas em comparação a células saudáveis. Os estudos desenvolvidos com inibidores de tubulina aqui apresentados permitiram identificar moduladores da polimerização de microtúbulos com excelente perfil anti-câncer, que servirão como modelo para o desenvolvimento de novos tratamentos eficazes contra o câncer. No segundo capítulo é apresentado um novo método para predizer modificações conformacionais e a formação de complexos multiméricos em sistemas proteicos. Este método foi elaborado durante os estudos desenvolvidos ao longo de um programa de intercâmbio no laboratório The Center for Theoretical and Biological Physics (CTBP, Rice University, Estados Unidos), sob orientação do professor Dr. José Nelson Onuchic. Durante este projeto, estudos de modelagem computacional foram realizados utilizando métodos computacionais modernos desenvolvidos no próprio CTBP, tal como o método de Análise de Acoplamento Direto (DCA, do inglês Direct-Coupling Analysis) e um método de simulação conhecido como Modelagem Baseada em Estrutura (SBM, do inglês Structure-Based Modeling). Nos estudos aqui apresentados, os métodos DCA e SBM desenvolvidos no CTBP foram combinados, modificados e ampliados no desenvolvimento de uma nova metodologia que permite identificar mudanças conformacionais e elucidar mecanismos de enovelamento e oligomerização em proteínas. Os resultados obtidos através da predição de diversos complexos proteicos multiméricos com uma alta precisão mostram que este sistema é extremamente eficaz e confiável para identificar regiões de interface de contato entre proteínas a a estrutura quaternária de complexos macromoleculares. Esta nova metodologia permite a elucidação e caracterização de sistemas proteicos incapazes de serem determinados atualmente por métodos puramente experimentais. No terceiro capítulo desta tese de doutorado, é descrito a construção de uma base virtual de dados em uma iniciativa pioneira que tem como principal objetivo reunir e disponibilizar o máximo possível de toda a informação já obtida através do estudo da biodiversidade brasileira. Esta base, intitulada NuBBE DataBase, reúne diversas informações como estrutura molecular 2D e 3D e informações de atividades biológicas de diversas moléculas já isoladas pelo Núcleo de Bioensaios Biossíntese e Ecofisiologia de Produtos Naturais (NuBBE), localizado na Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP). A NuBBEDB será de grande utilidade para a comunidade científica, fornecendo a centros de pesquisa e indústrias farmacêuticas informações para estudos de modelagem molecular, metabolômica, derreplicação e principalmente para o planejamento e a identificação de novos compostos bioativos. / The work developed during a doctorate program and shown here as a PhD thesis reports the accomplishment of a series of computational and experimental studies focused on the development of new anticancer agents, an innovative methodology for the investigation of protein complexes formation and of a new database for natural products based on the Brazilian biodiversity, in an effort to assist and encourage the discovery and development of new pharmaceutical drugs inside country. The first chapter describes studies that resulted in the identification and development of new molecules with anticancer activity through the integration of biochemical experiments and molecular modeling methods in the area of medicinal chemistry. Thus, molecular modeling studies and biochemical assays using a library of compounds provided by collaboration with the Laboratório de Síntese de Produtos Naturais e Fármacos (LSPNF) from the University of Campinas (Unicamp) have identified a number of molecules of the cyclopenta-b-indole class as inhibitors for microtubule polymerisation, with substantial anti-cancer activity. These compounds showed to be able to modulate microtubule polymerisation on in vitro assays against the molecular target and cancer cells with IC50 values in the range of 20 to 30 μM. Moreover, experimental studies have identified the colchicine site of tubulin as in the region of interaction of this class and cell migration assays have proven their antitumour activity. Based on these results, further studies using molecular docking and molecular dynamics allowed to elucidate the molecular interactions involved in the binding process to tubulin protein, and these molecular models were used to guide the design, synthesis and evaluation of a novel series of compounds. From the data obtained by computational studies, modifications were proposed to design, synthesise and evaluate new tubulin polymerisation inhibitors, resulting in identification of a high-activity inhibitor and superior pharmacodynamic profile and IC50 of 5 μM. Alongside, in vitro cytotoxicity assays demonstrated an interesting selectivity of these compounds for cancer cells when compared to healthy cells. The studies presented here with tubulin inhibitors allowed to identify modulators of microtubule polymerisation with excellent anti-cancer profile, that will provide a valuable scaffold for the development of new effective treatments against cancer. The second chapter presents a new method for predicting changes on the conformational and the formation of multimeric protein complexes. This method was developed during the studies carried out over an exchange program in the Center for Theoretical and Biological Physics (CTBT, Rice University, USA), under the supervision of professor Dr. José Nelson Onuchic. During this project, computer modeling studies were carried using modern methods developed in the CTBT itself, such as Direct-Coupling Analysis (DCA) and a simulation method known as Modeling Based Structure (SBM). In the studies presented here, the DCA and SBM methods developed in CTBP were combined, modified and expanded to develop a new methodology able to identify the conformational changes and to elucidate mechanisms folding and oligomerization of proteins. The results obtained through prediction of various multimeric protein complexes with high accuracy show that this system is extremely effective and reliable to identify interface contacts between proteins and to predict the quaternary structure of macromolecular complexes. This new method allows the characterization and elucidation of protein systems that are currently unable to be solely determined by experimental methods. The third chapter of this doctoral thesis describes the construction of a virtual database in a pioneering initiative that aims to gather and make available all the information already obtained through the study of Brazilian biodiversity. This database, entitled NuBBE DataBase, brings together various information such as 2D and 3D molecular structure and biological activity of several molecules already isolated by the Núcleo de Bioensaios Biossíntese e Ecofisiologia de Produtos Naturais(NuBBE), located at the Universidade Estadual Paulista Julio de Mesquita Filho (UNESP). The NuBBEDB will be useful to the scientific community, providing research and pharmaceutical centers information for molecular modeling studies, metabolomics, derreplication and principally for the planning and identification of new bioactive compounds.
1163

Definição de um gerenciador para o modelo de dados temporal TF-ORM / Definition of a manager for a TF-ORM temporal data model

Hubler, Patricia Nogueira January 2000 (has links)
Há alguns anos, a necessidade de armazenar a história das informações e o período no qual as mesmas são válidas ou não no mundo real, está crescendo. As próprias leis vigentes no país fazem com que isto seja uma necessidade quando, por exemplo, criam uma tabela de tempo de validade para o armazenamento de documentos fiscais ou de recursos humanos. Neste âmbito destaca-se a importância do estudo de modelos de dados temporais que gerenciem este tipo de informação. Tais modelos definem a forma como as informações são organizadas, mantidas e recuperadas. A implementação destes modelos, entretanto, é realizada sobre bancos de dados (BD) convencionais, uma vez que ainda não existe um BD totalmente temporal. O mapeamento de um modelo temporal sobre um convencional não impede que sejam satisfeitas todas as necessidades de representação temporal, desde que seja realizado de forma coerente. As diferentes informações temporais que podem ser utilizadas para a representação de tempo são o tempo de transação e o tempo de validade. Quando se deseja uma representação completa da realidade, utilizam-se bancos de dados bitemporais, através dos quais é possível recuperar todas as informações passadas, presentes e futuras. Este trabalho apresenta o mapeamento de um modelo de dados bitemporal (modelo TF-ORM) para um SGBD convencional (Oracle). Este mapeamento compreende, além das informações temporais, todas as características do modelo, dentre as quais: classes e papéis, mensagens, regras, propriedades dinâmicas e estáticas. É apresentada, ainda, a definição de um gerenciador temporal, o qual busca automatizar o que é implementado. Complementando o estudo realizado, são apresentadas sugestões de operações a serem realizadas pelos desenvolvedores de aplicações temporais quando da manutenção das informações. As operações de inserção, atualização e remoção em uma base temporal são analisadas, independente do tipo de BD temporal implementado. Um estudo de caso é apresentado para validar todas as definições realizadas. / The need for storing the information’s history and the period in which they are still valid in the real world has been growing in the last few years. The very existing laws in the country make it necessary when, for instance, a validity temporal table is created for storing business or human resources documents. Therefore, the study of temporal data models which manage this kind of information has become very important. Such models define the way in which the information is organized, kept and recovered. The implementation of these models, though, is carried out over conventional data bases (DB), once there is no a totally temporal DB. The mapping of a temporal model over a conventional one allows all of its requirements to be met, as long as it is made coherently. The different temporal information that can be used for time representation are the transaction time and the validity time. Whenever a complete representation of the reality is wanted, bitemporal databases are used. These bases make it possible to recover all the past information as well as present and future information. This work presents the mapping of a temporal data model (TF-ORM model) for a conventional DBMS (Oracle). Besides the temporal information, this mapping comprehends all the model’s characteristics, such as: classes and roles, messages, rules, dynamic and static properties. It is also presented a definition of a temporal manager which aims at automating what is implemented. In addition to this study, suggestions of operations to be carried out by the developers of temporal applications for the maintenance of the information are presented. The operations of inserting, updating and removing on temporal base are analyzed, apart from the kind of DB implemented. A case study is presented in order to validate all the definitions made.
1164

Uma técnica para ranqueamento de interpretações SQL oriundas de consultas com palavras-chave / A technique forranking SQL interpretations from keyword queries

Sousa, Walisson Pereira de 11 December 2017 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2018-01-26T12:51:05Z No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-01-29T10:41:52Z (GMT) No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-01-29T10:41:52Z (GMT). No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-12-11 / Retrieving information using words from a natural language is a simple and already consolidated way to access data on the Web. It would be highly desirable that a similar method could be used to submit queries on databases, thereby freeing the user from learning a query language and knowing the searched database structure. In this sense, a great research effort has been dedicated by the database community in order to develop more efficient query keywords techniques for database access. However, a keyword query can result in a large number of SQL interpretations, most of them irrelevant for the initial query. This work carry out a study of different query interpretations ranking techniques and, finally, proposes a ranking methodology that maximizes the amount of relevant results for keyword queries submitted to relational databases. / Recuperar informações utilizando palavras de uma linguagem natural é uma maneira simples e já consolidada para acessar dados na Web. Seria altamente desejável que um método semelhante fosse utilizado para executar consultas em bancos de dados, liberando assim o usuário do aprendizado de uma linguagem de consulta e o conhecimento da estrutura do banco de dados a ser consultado. Nesse sentido, um grande esforço de pesquisa vem sendo dedicado pela comunidade de Banco de dados, a fim de desenvolver técnicas de consultas com palavras-chave mais eficientes para acesso a bancos de dados. No entanto, uma consulta com palavras-chave pode originar uma grande quantidade de interpretações SQL, boa parte delas resultando em dados irrelevantes para a consulta inicial. Este trabalho realiza um estudo de diferentes técnicas para ranqueamento de interpretações de consultas e, ao final, propõe uma metodologia de ranqueamento que maximiza a quantidade de resultados relevantes para consultas com palavras-chave submetidas a bancos de dados relacionais.
1165

Object oriented databases : a natural part of object oriented software development?

Carlsson, Anders January 2003 (has links)
The technology of object oriented databases was introduced to system developers in the late 1980?s. Despite that it is rarely used today. This thesis introduces the concept of object oriented databases as the purposed solution to the problems that exist with the use of relational databases. The thesis points to the advantages with storing the application objects in the database without disassembling them to fit a relational data model. Based on that advantages and the cost of introducing such a rarely used technology into a project, a guideline for when to use object oriented databases and when to use relational databases is given. / anders@actk.net
1166

En webbaserad komptensmatris / Webbased Competence Matrix

Lindahl, Mathias, Murad, Assan January 2017 (has links)
Idag är det vanligt på större IT-företag att konstellationen i de agila teamen ändras i och med projektens kompetensbehov. Förutom de egna anställda, hyrs ofta konsulter in med spetskompetens inom olika områden. För att effektivisera projektplanering, kompetensutveckling och för att hitta kompetenser i andra team på företaget, behövdes ett verktyg för att hantera kompetenserna på företaget. Denna rapport bygger på ett uppdrag förmedlat av Transportstyrelsen. Transportstyrelsens IT-enhet växer och ett stort antal konsulter är ständigt på plats. Uppdraget gick ut på att ta fram en prototyp till en webbaserad plattform för att hantera de olika teamens kompetenser. Projektet resulterade i en webbapplikation med ett användargränssnitt byggt i Angular med data lagrad i en code first-baserad SQL-server. Kommunikationen mellan Angular och SQL-servern görs över ett Web-Api. / Today, it is common for large IT companies that the constellation of the agile teams changes based on the projects skills requirements. In addition to their own employees, consultants are often hired with excellence in different areas. In order to streamline project planning, skills development and finding skills in other teams in the company, a tool was required to manage the skills in the company.   This report is based on a mission conveyed by the Swedish transport Agency. The Transport Agency's IT unit is growing and a large number of consultants are constantly present. The mission was to produce a prototype of a web-based platform to handle teams various skills.   The project resulted in a web application with a user interface built in Angular with data stored in a code first-based SQL server. Communication between Angular and the SQL Server is done over a Web Api.
1167

Main-memory database VS Traditional database

Rehn, Marcus, Sunesson, Emil January 2013 (has links)
There has been a surge of new databases in recent years. Applications today create a higher demand on database performance than ever before. Main-memory databases have come into the market quite recently and they are just now catching a lot of interest from many different directions. Main-memory databases are a type of database that stores all of its data in the primary memory. They provide a big increase in performance to a lot of different applications. This work evaluates the difference in performance between two chosen candidates. To represent main memory databases we chose VoltDB and to represent traditional databases we chose MySQL. We have performed several tests on those two databases. We point out differences in functionality, performance and design choices. We want to create a reference where anyone that considers changing from a traditional database to a main memory database, can find support for their decision. What are the advantages and what are the disadvantages of using a main-memory database, and when should we switch from our old database to a newer technology.
1168

[en] A STUDY FOR SHARING LEARNING OBJECTS IN MULTIMEDIA DATABASE / [pt] UM ESTUDO PARA O COMPARTILHAMENTO DE OBJETOS DE APRENDIZADO EM BANCO DE DADOS MULTIMÍDIA

KONSTANTIN KURIZKY 30 June 2004 (has links)
[pt] Este trabalho apresenta uma proposta para utilizar a tecnologia de banco de dados para o armazenamento e a gerência de objetos de aprendizado em uma federação de banco de dados (banco de dados distribuído). A crescente evolução no uso de aprendizado eletrônico trouxe o foco para a produtividade na elaboração e gerência do conteúdo dos módulos educacionais. Este conteúdo compreende hoje de vídeos, áudios e de outros dados relacionados, além de textos. Este material é normalmente armazenado pelos instrutores sem maiores preocupações quanto ao compartilhamento. Como membro do projeto PGL (Partnership in Global Learning) - uma organização virtual voltada para pesquisa, desenvolvimento e disseminação do aprendizado através de novas tecnologias - o laboratório de banco de dados da PUC-Rio - TecBD, tem pesquisado a adoção do enfoque de banco de dados para a gerência de objetos de aprendizado (Learning Objects) armazenados em locais interligados formando um ambiente de banco de dados heterogêneos distribuído. Este trabalho visa: 1) utilizando produtos de BD comercialmente disponíveis; 2) adotando os atuais padrões existentes para definição de objetos de aprendizado; 3) considerando objetos de aprendizado armazenados em locais separados e autônomos; 4) desenvolver uma aplicação (protótipo) com esses objetos de aprendizado. O modelo de dados adotado estabelece uma estrutura de objetos de aprendizado compostos, via relacionamentos com elementos atômicos e também com elementos compostos. Diferentes abordagens como, por exemplo, Web Services, Java/Servlets e Web Application Servers, foram estudadas para o problema da autonomia e distribuição geográfica. Um protótipo foi construído utilizando o produto IBM DB2 com seus recursos suplementares tais como extensores para dados de áudio, vídeo, imagens, XML e suporte para gerenciamento federado. A exploração dos dados armazenados, via navegador (browser), foi realizada utilizando a camada IBM Net.Data que embora não obrigatória, permitiu realizar a tarefa de um modo simples e disponibilizou uma solução bem integrada com o IBM DB2 e seus complementos. / [en] This work presents a proposal to utilize database technology for storing and managing learning objects in a database federation (distributed database). The evolution of e-learning has brought the focus over the productivity to make and to manage the content of learning modules, which today comprises videos, audio, among other related data, besides the text data. Instructors normally store this material without worry about sharing. As a member of PGL - Partnership in Global Learning - a virtual organization for research, development and dissemination of learning through new technologies - TecBD - the PUC-Rio`s Database Laboratory is researching the use of database approach for managing learning objects stored on interconnected sites composing a heterogeneous distributed database environment. This work intends: 1) using market ready DB products; 2) adopting the actual standards for defining of learning objects; 3) considering learning objects stored on separated and autonomous sites; 4) to develop an application (a study case) with these learning objects. The learning object`s model establishes a structure for composing learning objects by linking atomic elements and also linking composed elements. Different approaches as Web Services, Java/Servlets and Web Application Servers were considered for the geographically distributed problem. A study case was build using the product IBM DB2 with the provided extenders for audio, video, image, XML data and the Federated System Support. The web browser`s explore of the stored data was build using the IBM Net.Data software. Although not exclusive, it provided an easy way to perform this task and also enabled an easy integration with IBM DB2 and its extenders.
1169

Natural Language Interfaces to Databases

Chandra, Yohan 12 1900 (has links)
Natural language interfaces to databases (NLIDB) are systems that aim to bridge the gap between the languages used by humans and computers, and automatically translate natural language sentences to database queries. This thesis proposes a novel approach to NLIDB, using graph-based models. The system starts by collecting as much information as possible from existing databases and sentences, and transforms this information into a knowledge base for the system. Given a new question, the system will use this knowledge to analyze and translate the sentence into its corresponding database query statement. The graph-based NLIDB system uses English as the natural language, a relational database model, and SQL as the formal query language. In experiments performed with natural language questions ran against a large database containing information about U.S. geography, the system showed good performance compared to the state-of-the-art in the field.
1170

A comparison of latency for MongoDB and PostgreSQL with a focus on analysis of source code

Lindvall, Josefin, Sturesson, Adam January 2021 (has links)
The purpose of this paper is to clarify the differences in latency between PostgreSQL and MongoDB as a consequence of their differences in software architecture. This has been achieved through benchmarking of Insert, Read and Update operations with the tool “Yahoo! Cloud Serving Benchmark”, and through source code analysis of both database management systems (DBMSs). The overall structure of the architecture has been researched with Big O notation as a tool to examine the complexity of the source code. The result from the benchmarking show that the latency for Insert and Update operations were lower for MongoDB, while the latency for Read was lower for PostgreSQL. The results from the source code analysis show that both DBMSs have a complexity of O(n), but that there are multiple differences in their software architecture affecting latency. The most important difference was the length of the parsing process which was larger for PostgreSQL. The conclusion is that there are significant differences in latency and source code and that room exists for further research in the field. The biggest limitation of the experiment consist of factors such as background processes which affected latency and could not be eliminated, resulting in a low validity.

Page generated in 0.0555 seconds