• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1017
  • 224
  • 97
  • 96
  • 70
  • 31
  • 29
  • 19
  • 19
  • 14
  • 12
  • 8
  • 7
  • 7
  • 7
  • Tagged with
  • 2079
  • 745
  • 706
  • 585
  • 437
  • 357
  • 330
  • 310
  • 227
  • 221
  • 193
  • 189
  • 174
  • 165
  • 160
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
941

Using ontologies to semantify a Web information portal

Chimamiwa, Gibson 01 1900 (has links)
Ontology, an explicit specification of a shared conceptualisation, captures knowledge about a specific domain of interest. The realisation of ontologies, revolutionised the way data stored in relational databases is accessed and manipulated through ontology and database integration. When integrating ontologies with relational databases, several choices exist regarding aspects such as database implementation, ontology language features, and mappings. However, it is unclear which aspects are relevant and when they affect specific choices. This imposes difficulties in deciding which choices to make and their implications on ontology and database integration solutions. Within this study, a decision-making tool that guides users when selecting a technology and developing a solution that integrates ontologies with relational databases is developed. A theory analysis is conducted to determine current status of technologies that integrate ontologies with databases. Furthermore, a theoretical study is conducted to determine important features affecting ontology and database integration, ontology language features, and choices that one needs to make given each technology. Based on the building blocks stated above, an artifact-building approach is used to develop the decision-making tool, and this tool is verified through a proof-of-concept to prove the usefulness thereof. Key terms: Ontology, semantics, relational database, ontology and database integration, mapping, Web information portal. / Information Science / M. Sc. (Information Systems)
942

Une méthode d'optimisation hybride pour une évaluation robuste de requêtes / A Hybrid Method to Robust Query Processing

Moumen, Chiraz 29 May 2017 (has links)
La qualité d'un plan d'exécution engendré par un optimiseur de requêtes est fortement dépendante de la qualité des estimations produites par le modèle de coûts. Malheureusement, ces estimations sont souvent imprécises. De nombreux travaux ont été menés pour améliorer la précision des estimations. Cependant, obtenir des estimations précises reste très difficile car ceci nécessite une connaissance préalable et détaillée des propriétés des données et des caractéristiques de l'environnement d'exécution. Motivé par ce problème, deux approches principales de méthodes d'optimisation ont été proposées. Une première approche s'appuie sur des valeurs singulières d'estimations pour choisir un plan d'exécution optimal. A l'exécution, des statistiques sont collectées et comparées à celles estimées. En cas d'erreur d'estimation, une ré-optimisation est déclenchée pour le reste du plan. A chaque invocation, l'optimiseur associe des valeurs spécifiques aux paramètres nécessaires aux calculs des coûts. Cette approche peut ainsi induire plusieurs ré-optimisations d'un plan, engendrant ainsi de mauvaises performances. Dans l'objectif d'éviter cela, une approche alternative considère la possibilité d'erreurs d'estimation dès la phase d'optimisation. Ceci est modélisé par l'utilisation d'un ensemble de points d'estimations pour chaque paramètre présumé incertain. L'objectif est d'anticiper la réaction à une sous-optimalité éventuelle d'un plan d'exécution. Les méthodes dans cette approche cherchent à générer des plans robustes dans le sens où ils sont capables de fournir des performances acceptables et stables pour plusieurs conditions d'exécution. Ces méthodes supposent souvent qu'il est possible de trouver un plan robuste pour l'ensemble de points d'estimations considéré. Cette hypothèse reste injustifiée, notamment lorsque cet ensemble est important. De plus, la majorité de ces méthodes maintiennent sans modification un plan d'exécution jusqu'à la terminaison. Cela peut conduire à de mauvaises performances en cas de violation de la robustesse à l'exécution. Compte tenu de ces constatations, nous proposons dans le cadre de cette thèse une méthode d'optimisation hybride qui vise deux objectifs : la production de plans d'exécution robustes, notamment lorsque l'incertitude des estimations utilisées est importante, et la correction d'une violation de la robustesse pendant l'exécution. Notre méthode s'appuie sur des intervalles d'estimations calculés autour des paramètres incertains, pour produire des plans d'exécution robustes. Ces plans sont ensuite enrichis par des opérateurs dits de contrôle et de décision. Ces opérateurs collectent des statistiques à l'exécution et vérifient la robustesse du plan en cours. Si la robustesse est violée, ces opérateurs sont capables de prendre des décisions de corrections du reste du plan sans avoir besoin de rappeler l'optimiseur. Les résultats de l'évaluation des performances de notre méthode indiquent qu'elle fournit des améliorations significatives dans la robustesse d'évaluation de requêtes. / The quality of an execution plan generated by a query optimizer is highly dependent on the quality of the estimates produced by the cost model. Unfortunately, these estimates are often imprecise. A body of work has been done to improve estimate accuracy. However, obtaining accurate estimates remains very challenging since it requires a prior and detailed knowledge of the data properties and run-time characteristics. Motivated by this issue, two main optimization approaches have been proposed. A first approach relies on single-point estimates to choose an optimal execution plan. At run-time, statistics are collected and compared with estimates. If an estimation error is detected, a re-optimization is triggered for the rest of the plan. At each invocation, the optimizer uses specific values for parameters required for cost calculations. Thus, this approach can induce several plan re-optimizations, resulting in poor performance. In order to avoid this, a second approach considers the possibility of estimation errors at the optimization time. This is modelled by the use of multi-point estimates for each error-prone parameter. The aim is to anticipate the reaction to a possible plan sub-optimality. Methods in this approach seek to generate robust plans, which are able to provide good performance for several run-time conditions. These methods often assume that it is possible to find a robust plan for all expected run-time conditions. This assumption remains unjustified. Moreover, the majority of these methods maintain without modifications an execution plan until the termination. This can lead to poor performance in case of robustness violation at run-time. Based on these findings, we propose in this thesis a hybrid optimization method that aims at two objectives : the production of robust execution plans, particularly when the uncertainty in the used estimates is high, and the correction of a robustness violation during execution. This method makes use of intervals of estimates around error-prone parameters. It produces execution plans that are likely to perform reasonably well over different run-time conditions, so called robust plans. Robust plans are then augmented with what we call check-decide operators. These operators collect statistics at run-time and check the robustness of the current plan. If the robustness is violated, check-decide operators are able to make decisions for plan modifications to correct the robustness violation without a need to recall the optimizer. The results of performance studies of our method indicate that it provides significant improvements in the robustness of query processing.
943

Modelo de previsão de demanda de médicos para internação pelo SUS: estudo de caso para o Estado do Rio de Janeiro / A physician demand model for admissions for the SUS: a case study for the State of Rio de Janeiro

Sérgio Pacheco de Oliveira 15 May 2007 (has links)
Trata da apresentação e discussão de um modelo de previsão de demanda de médicos para atendimentos de pacientes internados pelo SUS, com estudo de caso para o Estado do Rio de Janeiro. O modelo é baseado nos dados do Sistema de Informações Hospitalares do SUS (SIH/SUS) e nas alterações esperadas de tamanho e composição da população, segundo o IBGE. Descreve a trajetória e a motivação que levaram à construção do modelo, a partir da ideia de maior utilização do enorme potencial das bases de dados brasileiras para o planeamento e gestão dos RHS. Faz também comentários sobre conceitos da Tecnologia da Informação, que são de interesse para uma melhor compreensão das bases de dados, incluindo a utilização de padrões. Apresenta e comenta os resultados da aplicação do modelo, para o período de 2002 a 2022, para o Estado do Rio de Janeiro. Propõe sugestões de pesquisas com objetivo de melhorar a integração entre as bases de dados estudadas, a discussão da construção e utilização de indicadores, assim como uma proposta de evolução para o apoio à decisão na área de RHS. / The text presents and discuss forecast model of physicians demand attendance of patients admitted on the SUS, with a study of case for the State of Rio de Janeiro. The model is based on the data of Hospital Information System of SUS (SIH/SUS) and on the foresight alterations of size and composition of the population, according to the Brazilian Institute of Geography and Statistics (IBGE). It describes the trajectory and the motivation that had taken to the model set up, starting from the idea of a better utilization of the enormous potential of the Brazilian databases for the planning and management of the Health Human Resources (HHR). The text also brings some commentaries on concepts of the Information Technology, that are of interest for better understanding of databases, including the use of standards. The results of the models application for the period of 2002 the 2022, for the State of Rio de Janeiro, are presented and discussed. Several data sources were studied previously the models set up. Suggestions of research with objective to improve the integration among the studied databases are presented, as well as the quarrel of the construction and use of indicators and a proposal of further research on the support to the decision in the HHR field.
944

DETECÇÃO DE OPORTUNIDADES DE REFATORAÇÃO EM BASES DE DADOS RELACIONAIS / DETECTION OF REFACTORING OPPORTUNITIES IN RELATIONAL DATABASES

Fogliato Junior, Luiz 30 November 2015 (has links)
Many information systems that work with RDR (Relational Databases) have problems in the design of their databases. Such failures may result from design specification, requirement changes or even lack of knowledge to produce schemes that provide more evolutionary treatments for such systems. The technique that includes making changes to correct imperfections in databases that generate the mentioned problem is known as database refactoring. In order to identify possible opportunities for refactoring databases, this work proposes heuristics that detect or assist in detecting opportunities for refactoring. Thus, domain analysts and data professionals can identify the structure and data bad smells of a scheme and also take the necessary steps to address these shortcomings. / Muitos sistemas de informação que trabalham com BDR (Bancos de Dados Relacionais) apresentam problemas no projeto de suas bases de dados. Tais falhas podem ser decorrentes de falhas na construção, mudanças de requisitos ou falta de conhecimento por parte da equipe envolvida para produzir esquemas que proporcionem tratamentos mais evolutivos para tais sistemas. A técnica que possibilita fazer mudanças para corrigir imperfeições em bases de dados que geram os problemas citados é conhecida como refatoração (refactoring) em bases de dados. Objetivando identificar possíveis oportunidades de refatoração em bases de dados, este trabalho propõe heurísticas que detectam ou auxiliam na detecção de oportunidades de refatoração. Assim, analistas de domínio e profissionais da área de banco de dados poderão identificar, com maior agilidade, os defeitos compreendidos na estrutura e nos dados de um esquema e também tomar as providências necessárias para solucionar esses defeitos.
945

Um estudo para implementacao do modelo tf-orm / A study for tf-orm implementation

Arruda, Eduardo Henrique Pereira de January 1996 (has links)
A utilização de modelos orientados a objetos na especificação de sistemas de informação promove mudanças radicais na maneira como estes são analisados, projetados e implementados. No entanto, certos aspectos relacionados evolução dinâmica do comportamento e dos valores das propriedades dos objetos não são plenamente satisfeitos através destes modelos. TF-ORM introduz novos conceitos, estendendo o modelo de orientação a objetos a fim de suportá-los. Advindo do modelo de objetos com papeis (ORM), TF-ORM divide o comportamento dos objetos nos diversos papeis que estes podem desempenhar. São introduzidos conceitos para modelagem dos aspectos tempo-dependentes das aplicações, incluindo utilização de marcas de tempo associadas aos objetos e instancias de papeis, e aos valores das propriedades com variação dinâmica, bem como a definidas de domínios temporais e uma linguagem de lógica temporal. TF-ORM permite a definição de restrições sobre o comportamento dinâmico das instâncias, através de regras de transição de estado, e sobre os valores das propriedades, através de regras de restrição de integridade. Uma abordagem de implementação TF-ORM deve levar em consideração o conjunto destes aspectos, em especial: (i) suporte ao conceito de papeis, permitindo a criação de instâncias multiples e paralelas; (ii) suporte aos conceitos tempo-dependentes, incluindo a definição de timestamps e domínios de dados temporais; e (iii) suporte ao mecanismo de regras de transição de estado e regras de integridade. Este trabalho apresenta um estudo para implementação do modelo TFORM sobre o sistema de gerencia de banco de dados orientado a objetos 02, o qual suporta plenamente os conceitos do modelo de orientação a objetos e os conceitos básicos de bancos de dados de segunda geração. Dentro deste estudo são analisadas as possibilidades de mapeamento do modelo de objetos com papeis para o modelo tradicional de orientação a objetos. Da mesma forma, requisitos para implementação de aspectos temporais são analisados. O modelo de regras TF-ORM. baseado no estudo de diversos modelos de implementação, e mapeado para um modelo de regras E-C-A (evento-condicaoacao), as quais permitem a transformação do 02 em um sistema de bancos de dados ativo, capaz de responder a estímulos não diretamente ligados a requisições de usuários. A abordagem de implementação apresentada permite a especificação de grande parte da funcionalidade do modelo TF-ORM. A fim de certificar sua correção, e proposta uma ferramenta de tradução e desenvolvido um estudo de caso utilizando notação gráfica para especificação de requisitos TF-ORM. / The information systems' requirements specification model TF-ORM extends the object-oriented model, splitting the object behavior in different roles that it can perform. In addition, introduces the support to dynamic properties, temporal domains, state transition rules, and constraints. This work presents a TF-ORM implementation approach to the object-oriented database management system 02. The use of object-oriented models in information systems" specification radically changes the manner in which this systems are analyzed. designed, and implemented. However, some aspects related to dynamic behavior and property value evolution are not fully satisfied through these models. TF-ORM introduces a set of new concepts, extending object-oriented model to support these aspects. Originated in the object with roles model (ORM), TF-ORM divides the objects behavior in the different roles that it can perform. Are introduced concepts to model time-dependent aspects, including timestamps associated to objects and roles instances. and to values of dynamic properties. as well as the temporal domain specification and a temporal logic language are supported. TF-ORM allows the definition of constraints over the dynamic behavior of the instances, through state transition rules, and over the property values, through integrity constraints. A TF-ORM implementation approach must consider all of these aspects, specially: (i) support to roles concept, allowing the creation of multiple and parallel instances; (ii) support to time-dependents concepts, including timestamps definition and temporal data domains; and (iii) support to state transition rules and integrity constraints. This work presents a study to implement the TF-ORM model over 02, an object-oriented database management system that supports entirely object-oriented and databases' second generation requirements. This study analyses the possibilities to mapping roles to traditional object-oriented model, and temporal aspects implementation requirements. The TF-ORM rules model, based on the study of many implementation models, is mapped to a E-C-A (event-condition-action) rules model. E-C-A rules allow transforming 02 in an active database, able to answer impulses not directly generated by users' requirements. The implementation approach presented allows the specification of multiples aspects of the TF-ORM functionality. To certificate its correctness, is proposed a translate tool, and developed a study of case, using a graphical notation to TF-ORM requirements specification.
946

Um Framework para construção de aplicações OO sobre SGBD relacional / Object-oriented application design in a relational database

Molz, Kurt Werner January 1999 (has links)
O paradigma da orientação a objetos esta se tomando a abordagem preferida para construção de sistemas em ambiente de banco de dados. Por outro lado, a tecnologia relacional e amplamente adotada para gerenciar dados corporativos. Os bancos de dados relacionais tornaram-se o padrão no armazenamento de dados para aplicações de processamento de transações on-line (OLTP). Estas tendências estão motivando a necessidade de construção de aplicações orientadas a objetos que acessem banco de dados relacionais. 0 uso de conceitos orientado a objetos, como herança, permitem uma modelagem !Dais adequada e uma melhor implementação da aplicação baseada em sistema de banco de dados orientado a objetos. Entretanto, os resultados do projeto orientado a objetos, podem também ser aplicados em sistemas clássicos de banco de dados. 0 trabalho apresenta o uso de padrões de projeto na construção de una arquitetura de um framework que auxilie o mapeamento de uma aplicação 00 a um SGBD relacional. Esta arquitetura segue a abordagem de persistência de objetos baseada em gateways, que é uma camada de software inserida entre o sistema gerenciador de banco de dados e a aplicação orientada a objetos, cujo o objetivo é dar suporte a um modelo de programação de aplicações 00. A característica principal desta arquitetura é a separação clara das classes que tratam da base de dados em relação as classes que tratam do domínio do problema da aplicação. Esta divisão de responsabilidades permite a substituição das classes referentes a base de dados por outras, permitindo a migração da aplicação entre bases de dados diferentes. São apresentados neste trabalho, formas de mapeamentos de esquemas orientados a objetos para esquemas relacionais. Estes mapeamentos acontecem do modelo 00 para o modelo relacional. E importante salientar, que a arquitetura que esta sendo proposta, não vai impedir que aplicações estruturadas deixem ter acesso a base de dados relacional mapeada, pois esta abordagem foi escolhida para permitir que novas aplicações 00 tenham acesso a base de dados relacionais já existentes. Como a implementação deste trabalho segue a abordagem de gateway, são apresentados os conceitos de orientação objetos, e como estes serão suportados na arquitetura, ou seja, o que o gateway devera implementar. / The paradigm of the object-oriented is becoming the approach preferred for construction of systems in database environment. On the other hand, the technology relational is adopted thoroughly for management corporate data. The relational databases they became the pattern in the storage of data for applications of processing of transactions on-line (OLTP). These tendencies are motivating the need of construction of applications object-oriented that acessem relational databases. The way of using object-oriented conception, how inheritance, to make possible the better modeling and implementation based in object-oriented database systems. Therefore, the objetc-oriented design results, also is possible to application in classics database systems. The work presents the use of project patterns in the construction of an architecture of a framework that aids the mapeamento of an application 00 to a SGBD relacional. This architecture follows the approach of set persistence of objects in gateways, that is a software layer inserted among the system database manager and the object-oriented application, whose the objective is to give support to a model of programming of applications 00. The main characteristic of this architecture is the clear separation of the classes that are about the database in relation to the classes that are about the domain of the problem of the application. This division of responsibilities allows the substitution of the referring classes the database for other, allowing the migration of the application among different databases. They are presented in this work, forms of mapping the object-oriented model for relational model. These mappings happens of the model 00 for the model relational. It is important to point out, that the architecture that it is being proposed, won't impede that structured applications let to have access to the relational database, because this approach was chosen to allow that new applications 00 has access the relational database already existent. As the implementation of this work follows the gateway approach, the concepts of object-oriented are presented, and as these they will be supported in the architecture, that is to say, which the gateway should implement.
947

Um modelo de evolução de esquemas conceituais para bancos de dados orientados a objetos com o emprego de versões / A schema evolution model for object-oriented databases with versions

Galante, Renata de Matos January 1998 (has links)
Aplicações ditas não convencionais, como, por exemplo, CAD, CASE, Automação de Escritórios, entre outras, freqüentemente exigem a manutenção de diversos estados da base de dados, retendo o histórico das modificações realizadas. Como resposta a tal requisito, é empregado o conceito de Versão. Neste trabalho o Modelo de Versões proposto por Golendziner é empregado no contexto da evolução de esquemas. Versões são utilizadas para armazenar os diferentes estados do esquema, de suas classes e métodos e, ainda, para posterior adaptação das instancias vigentes no banco de dados, mantendo um histórico da evolução do esquema do banco de dados. É proposto um modelo flexível de suporte a evolução de esquemas em bancos de dados orientados a objetos, bem como estratégias de propagação das instancias vigentes na base de dados. O histórico das modificações é representado pela derivação de versões do esquema e de seus elementos. Os estados anteriores as transformações são preservados, permitindo aos usuários a navegação retroativa e proativa entre versões, para realização de operações consistentes de modificação e consulta. / Non-conventional applications such as CAD, CASE, office automation often require the maintenance of various database states, to keep track of the history of the performed updates. The concept of version is employed to support such requirement. In this work, the version model proposed by Golendziner is used in the schema evolution context. Versions are used to store the different states of the schema, classes and methods, as well as for the mapping of database instances among the various schema versions, thus keeping the history of the database schema evolution. A flexible model is proposed to support schema evolution in object-oriented databases, as well as the strategies to propagate the corresponding changes to the database instances. Versions of schema, as well as versions of the schema elements represent their evolution history. In the proposed model, previous states are preserved allowing the user to make queries about consistency and modifications in both backward and forward version.
948

From XML to relational view updates: applying old solutions to solve a new problem / De atualizações sobre visões XML para atualizações sobre visões relacionais: aplicando soluções antigas a um novo problema

Braganholo, Vanessa de Paula January 2004 (has links)
XML vem se tornando um importante meio para intercâmbio de dados, e é frequentemente usada com uma interface para - isto é, uma visão de - um banco de dados relacional. Apesar de existirem muitos trabalhos que tratam de consultas a bancos de dados através de visões XML, o problema de atualização de bancos de dados relacionais através de visões XML não tem recebido muita atenção. Neste trabalho, apresentam-se os primeiros passos para a solução deste problema. Usando query trees para capturar noções de seleção, projeção, aninhamento, agrupamento e conjuntos heterogêneos, presentes na maioria das linguagens de consulta XML, demonstra-se como visões XML expressas através de query trees podem ser mapeadas para um conjunto de visões relacionais correspondentes. Consequentemente, esta tese transforma o problema de atualização de bancos de dados relacionais através de visões XML em um problema clássico de atualização de bancos de dados através de visões relacionais. A partir daí, este trabalho mostra como atualizações na visão XML são mapeadas para atualizações sobre as visões relacionais correspondentes. Trabalhos existentes em atualização de visões relacionais podem então ser aplicados para determinar se as visões são atualizáveis com relação àquelas atualizações relacionais, e em caso a rmativo, traduzir as atualizações para o banco de dados relacional. Como query trees são uma caracterização formal de consultas de de nição de visões, elas não são adequadas para usuários nais. Diante disso, esta tese investiga como um subconjunto de XQuery pode ser usado como uma linguagem de de nição das visões, e como as query trees podem ser usadas como uma representação intermedi ária para consultas de nidas nesse subconjunto. / XML has become an important medium for data exchange, and is frequently used as an interface to - i.e. a view of - a relational database. Although lots of work have been done on querying relational databases through XML views, the problem of updating relational databases through XML views has not received much attention. In this work, we give the rst steps towards solving this problem. Using query trees to capture the notions of selection, projection, nesting, grouping, and heterogeneous sets found throughout most XML query languages, we show how XML views expressed using query trees can be mapped to a set of corresponding relational views. Thus, we transform the problem of updating relational databases through XML views into a classical problem of updating relational databases through relational views. We then show how updates on the XML view are mapped to updates on the corresponding relational views. Existing work on updating relational views can then be leveraged to determine whether or not the relational views are updatable with respect to the relational updates, and if so, to translate the updates to the underlying relational database. Since query trees are a formal characterization of view de nition queries, they are not well suited for end-users. We then investigate how a subset of XQuery can be used as a top level language, and show how query trees can be used as an intermediate representation of view de nitions expressed in this subset.
949

Abrangência nas estratégias de busca em Anestesiologia: descritores nas bases de dados MEDLINE e EMBASE / Comprehensiveness in search strategies in Anesthesiology: subheadings in MEDLINE and EMBASE databases

Volpato, Enilze de Souza Nogueira [UNESP] 24 July 2017 (has links)
Submitted by Enilze de Souza N Volpato null (enilze@btu.unesp.br) on 2017-09-20T13:58:00Z No. of bitstreams: 1 tese Enilze doutorado 18 set 2017.pdf: 2811609 bytes, checksum: 80bb3a313f1b7220a03a2d560f6d0719 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-09-20T14:47:30Z (GMT) No. of bitstreams: 1 volpato_esn_dr_bot.pdf: 2811609 bytes, checksum: 80bb3a313f1b7220a03a2d560f6d0719 (MD5) / Made available in DSpace on 2017-09-20T14:47:30Z (GMT). No. of bitstreams: 1 volpato_esn_dr_bot.pdf: 2811609 bytes, checksum: 80bb3a313f1b7220a03a2d560f6d0719 (MD5) Previous issue date: 2017-07-24 / Introdução: Para auxiliar os pesquisadores a identificarem os termos que devem compor a estratégia de busca, bibliotecários e educadores orientam os pesquisadores a consultarem e incluírem os termos (autorizados e não autorizados) do vocabulário controlado da base de dados na formulação de estratégias sensíveis para elaboração de revisões sistemáticas. No entanto, ao utilizar todos os termos disponíveis no tesauros (i.e. vocabulário controlado), as estratégias podem ficar extensas, pois alguns descritores incluem muitos termos não autorizados. Objetivo: Avaliar a praticidade e abrangência das estratégias de buscas compostas por descritores tanto do MeSH como do EMTREE, na área de Anestesiologia, que possam compor uma única estratégia de busca a ser utilizada nas bases de dados MEDLINE via PubMed e EMBASE. Método: Em nosso estudo transversal de estratégias de busca, selecionamos e analisamos 37 estratégias de busca desenvolvidas para o campo de Anestesiologia. Foram elaboradas as estratégias de busca originais que incluíram todos os termos disponibilizados nos vocabulários controlados, ou seja, com todas as variações referentes às diferentes grafias e ordens, direta e indireta, analisadas neste estudo. As estratégias originais foram modificadas com a exclusão dos termos que eram uma variação de grafia ou da ordem (direta ou indireta) para comparação dos resultados e adaptadas para submissão nas duas bases de dados. Resultados: As estratégias originais (com inclusão das variações: diferentes grafias e ordens direta e indireta) recuperaram o mesmo número de registros que as estratégias modificadas (sem a inclusão das variações)na base de dados Medline (média de 61,3%) e maior número na EMBASE (média de 63,9 %), na amostra analisada. O número de resultados obtidos pelas pesquisas analisadas não foi idêntico usando a associação ou não dos termos MeSH e EMTREE, sendo que a associação dos termos dos dois vocabulários controlados recuperou maior número de registros em comparação com o uso de termos de apenas um deles, nas duas bases de dados estudadas. Conclusões: Considerando os resultados, recomendamos o uso de todos os termos disponíveis nos vocabulários controlados incluindo termos autorizados e não autorizados (ou seja, diferentes ortografias e ordem direta e indireta do mesmo termo) e a associação dos termos do MeSH com os do EMTREE, para elaboração de estratégias de busca altamente sensíveis na realização de revisões sistemáticas. / Introduction: A high-quality electronic search is essential in ensuring accuracy and comprehensivness in identifying potentially relevant records in conducting a systematic review. To assist researchers in identifying terms when formulating a sensitive search strategy, librarians and educators instruct researchers to consult and include preferred and non-preferred terms of the controlled database. However, by using all available terms in the thesaurus (i.e. subject headings), strategies can be lengthy and very laborious. Objective: To identify the most efficient method for searching in both Medline through PubMed and EMBASE, covering search terms with different spellings, direct and indirect orders, and association (or lack thereof) with MeSH and EMTREE terms. Method: In our cross-sectional study of search strategies, we selected and analysed 37 search strategies specifically developed for the anesthesiology field. These search strategies were adapted in order to cover all potentially relevant search terms in terms of different spellings and direct and indirect orders, most efficiently. Results: When adapted to include different spellings and direct and indirect orders, adapted versions of the selected search strategies retrieved the same number of search results in the Medline (mean of 61,3%) and higher number in EMBASE (mean of 63,9%) of the analyzed sample. The number of results retrieved by the searches analysed was not identical using the association or not of MeSH and EMTREE terms; however the association of these terms from both controlled vocabularies retireved a large number of records compared to the use of either one of them. Conclusions: In view of these results, we recommend the use of search terms which include preferred and non-preferred terms (i.e., different spellings and direct/indirect order of the same term) and associated MeSH and EMTREE terms, in order to develop highly-sensitive search strategies for systematic reviews.
950

Benchmarking Public and Private Blockchains and Understanding the Development of Private Blockchain Networks

Tilton, Peter 01 January 2018 (has links)
This thesis paper explores the developing technology blockchain by trying to understand the technology from a technical performance standpoint and also understanding the development process of blockchain networks and applications. The first half of this paper analyzes two research papers, "Bitcoing-NG: A Scalable Blockchain Protocol" and "Untangling Blockchain: A Data Processing View of Blockchain Systems," to understand and explain some of the technical differences and shortcomings of blockchain technologies. The second half of this paper then proceeds to develop a private blockchain network on the Ethereum network and deploy a smart contract on that private blockchain network. This process gives insight into the development of blockchain applications and identifies the struggles blockchain developers face.

Page generated in 0.4425 seconds