• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 19
  • 17
  • 6
  • 6
  • 4
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 126
  • 126
  • 35
  • 23
  • 22
  • 22
  • 21
  • 19
  • 18
  • 17
  • 16
  • 16
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data context

Keylla Ramos Saes 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention
62

Abordagem para integração automática de dados estruturados e não estruturados em um contexto Big Data / Approach for automatic integration of structured and unstructured data in a Big Data context

Saes, Keylla Ramos 22 November 2018 (has links)
O aumento de dados disponíveis para uso tem despertado o interesse na geração de conhecimento pela integração de tais dados. No entanto, a tarefa de integração requer conhecimento dos dados e também dos modelos de dados utilizados para representá-los. Ou seja, a realização da tarefa de integração de dados requer a participação de especialistas em computação, o que limita a escalabilidade desse tipo de tarefa. No contexto de Big Data, essa limitação é reforçada pela presença de uma grande variedade de fontes e modelos heterogêneos de representação de dados, como dados relacionais com dados estruturados e modelos não relacionais com dados não estruturados, essa variedade de representações apresenta uma complexidade adicional para o processo de integração de dados. Para lidar com esse cenário é necessário o uso de ferramentas de integração que reduzam ou até mesmo eliminem a necessidade de intervenção humana. Como contribuição, este trabalho oferece a possibilidade de integração de diversos modelos de representação de dados e fontes de dados heterogêneos, por meio de uma abordagem que permite o do uso de técnicas variadas, como por exemplo, algoritmos de comparação por similaridade estrutural dos dados, algoritmos de inteligência artificial, que através da geração do metadados integrador, possibilita a integração de dados heterogêneos. Essa flexibilidade permite lidar com a variedade crescente de dados, é proporcionada pela modularização da arquitetura proposta, que possibilita que integração de dados em um contexto Big Data de maneira automática, sem a necessidade de intervenção humana / The increase of data available to use has piqued interest in the generation of knowledge for the integration of such data bases. However, the task of integration requires knowledge of the data and the data models used to represent them. Namely, the accomplishment of the task of data integration requires the participation of experts in computing, which limits the scalability of this type of task. In the context of Big Data, this limitation is reinforced by the presence of a wide variety of sources and heterogeneous data representation models, such as relational data with structured and non-relational models with unstructured data, this variety of features an additional complexity representations for the data integration process. Handling this scenario is required the use of integration tools that reduce or even eliminate the need for human intervention. As a contribution, this work offers the possibility of integrating diverse data representation models and heterogeneous data sources through the use of varied techniques such as comparison algorithms for structural similarity of the artificial intelligence algorithms, data, among others. This flexibility, allows dealing with the growing variety of data, is provided by the proposed modularized architecture, which enables data integration in a context Big Data automatically, without the need for human intervention
63

Árbol de decisión para la selección de un motor de base de datos / Decision tree for the selection of database engine

Bendezú Kiyán , Enrique Renato, Monjaras Flores, Álvaro Gianmarco 30 August 2020 (has links)
Desde los últimos años, la cantidad de usuarios que navega en internet ha crecido exponencialmente. Por consecuencia, la cantidad de información que se maneja crece a manera desproporcionada y, por ende, el manejo de grandes volúmenes de información obtenidos de internet ha ocasionado grandes problemas. Los diferentes tipos de bases de datos tienen un funcionamiento variado, dado que, se ve afectado el rendimiento para ejecutar las transacciones cuando se lidia con diferentes cantidades de información. Entre este tipo de variedades, se analizará las bases de datos relacionales, bases de datos no relaciones y bases de datos en memoria. Para las organizaciones es muy importante contar con un acelerado manejo de información debido a la gran demanda por parte de los clientes y el mercado en general, permitiendo que no se disminuya la agilidad de operación interna cuando se requiera manejar información, y conservar la integridad de esta. Sin embargo, cada categoría de base de datos está diseñada para cubrir diferentes casos de usos específicos para mantener un alto rendimiento con respecto al manejo de los datos. El presente proyecto tiene como objetivo el estudio de diversos escenarios de los principales casos de uso, costos, aspectos de escalabilidad y rendimiento de cada base de datos, mediante la elaboración de un árbol de decisión, en el cual, se determine la mejor opción de categoría de base de datos según el flujo que decida tomar el usuario. Palabras clave: Base de Datos, Base de Datos Relacional, Base de Datos No Relacional, Base de Datos en Memoria, Árbol de Decisión. / In recent years, the number of users browsing the internet has grown exponentially. Consequently, the amount of information handled grows disproportionately and, therefore, the handling of large volumes of information obtained from the Internet has caused major problems. Different types of databases work differently, since the performance of executing transactions suffers when dealing with different amounts of information. Among this type of varieties, relational databases, non-relationship databases and in-memory databases will be analyzed. For organizations it is very important to have an accelerated information management due to the great demand from customers and the market in general, allowing the agility of internal operation to not be diminished when it is required to manage information, and to preserve the integrity of is. However, each category of database is designed to cover different specific use cases to maintain high performance regarding data handling. The purpose of this project is to study various scenarios of the main use cases, costs, scalability and performance aspects of each database, through the development of a decision tree, in which the best option for database category according to the flow that the user decides to take. / Tesis
64

Um método de integração de dados armazenados em bancos de dados relacionais e NOSQL / A method for integration data stored in databases relational and NOSQL

Vilela, Flávio de Assis 08 October 2015 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2016-08-05T19:33:36Z No. of bitstreams: 2 Dissertação - Flávio de Assis Vilela - 2015.pdf: 4909033 bytes, checksum: 3266fed0915712ec88adad7eec5bfc55 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2016-08-08T14:30:29Z (GMT) No. of bitstreams: 2 Dissertação - Flávio de Assis Vilela - 2015.pdf: 4909033 bytes, checksum: 3266fed0915712ec88adad7eec5bfc55 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2016-08-08T14:30:29Z (GMT). No. of bitstreams: 2 Dissertação - Flávio de Assis Vilela - 2015.pdf: 4909033 bytes, checksum: 3266fed0915712ec88adad7eec5bfc55 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2015-10-08 / The increase in quantity and variety of data available on the Web contributed to the emergence of NOSQL approach, aiming at new demands, such as availability, schema flexibility and scalability. At the same time, relational databases are widely used for storing and manipulating structured data, providing stability and integrity of data, which is accessed through a standard language such as SQL. This work presents a method for integrating data stored in heterogeneous sources, in which an input query in standard SQL produces a unified answer, based in the partial answers of relational and NOSQL databases. / O aumento da quantidade e variedade de dados disponíveis na Web contribuiu com o surgimento da abordagem NOSQL, visando atender novas demandas, como disponibilidade, flexibilidade de esquema e escalabilidade. Paralelamente, bancos de dados relacionais são largamente utilizados para armazenamento e manipulação de dados estruturados, oferecendo estabilidade e integridade de dados, que são acessados através de uma linguagem padrão, como SQL. Este trabalho apresenta um método de integração de dados armazenados em fontes heterogêneas, no qual uma consulta de entrada em SQL produz uma resposta unificada, baseada nas respostas parciais de bancos de dados relacionais e NOSQL. Palavras–chave
65

A C++ Implementation And Evaluation Of Alternative Plan Generation Methods For Multiple Query Optimization

Abudula, Dilixiati 01 November 2006 (has links) (PDF)
In this thesis, alternative plan generation methods for multiple query optimization(MQO) are introduced and an implementation in the C++ programming.language has been developed. Multiple query optimization, aims to minimize the total cost of executing a set of relational database queries. In traditional single query optimization only the cost of execution of a single relational database query is minimized. In single query optimization a search is performed to investigate possible alternative methods of accessing relational database tables and alternative methods of performing join operations in the case of multi-relation queries where records from two or more relational tables have to be brought together using one of the join algortihms (e.g. nested loops, sort merge, hash join,etc). The choice of join method depends on the availability of indexes, amount of available main memory, the existence of ORDER BY clause for sorted output, the sizes of involved relations, many other factors. A simple way of performing multiple query optimization is to take the query execution plans generated for each of the queries as input to a MQO algorithm, and then try to identify common tasks in those plans using the MQO algorithm. However, this approach will reduce the achievable benefits since a more expensive execution plan (thus discarded by a single query optimizer) could have more common operations with other query execution plans, resulting in a lower total cost for MQO. .For this purpose we will introduce several methods for generating such potentially beneficial alternative query execution plans and experimentaly evaluate and compare their performances.
66

Reengineering and Development for Executive Information Systems : The Case of Southern Taiwan Business Group of Chunghwa Telecom

Chang, I-Ming 03 August 2000 (has links)
In the earlier period, large enterprise, developed its management reports system based on files system and the 3rd-generation language. The managers of several departments access management information from the reports system. Because competition stress increasing quickly and information requirement changing frequently, the legacy system could not satisfy the information need of managers. The maintainability of legacy system is decreasing, and the cost is growing up. How to solve the difficulties on system maintenance ? System reengineering is commonly used as a solution. How to choose a good migration strategy is also a big issue. This research focuses on finding a migration strategy for the legacy systems and a methodology of developing EIS based on users¡¦ needs via current new information technologies. The methodology is applied to implement a EIS for a large enterprise in order to verify the feasibility of the methodology. A questionnaire investigation among the users of the new system has clearly shown a fairly good users¡¦ satisfaction.
67

OWL transformavimas į reliacinių duomenų bazių schemas / Transformation of OWL to Relational Database Schemas

Petrikas, Giedrius 26 August 2010 (has links)
Ontologijų aprašymai yra dažniausiai naudojami semantiniame žiniatinklyje (Semantic Web/Web 2.0), tačiau pastaruoju metu jie randa vis daugiau ir daugiau pritaikymo kasdienėms informacijos sistemoms. Puikiai suformuota ontologija privalo turėti teisingą sintaksę ir nedviprasmišką mašinai suprantamą interpretaciją, tokiu būdu ji gali aiškiai apibrėžti fundamentalias sąvokas ir ryšius probleminėje srityje. Ontologijos vis plačiau naudojamos įvairiuose taikymuose: verslo procesų ir informacijos integravime, paieškoje ir žvalgyme. Tokie taikymai reikalauja geros greitaveikos, efektyvaus saugojimo ir didelio mąsto ontologinių duomenų manipuliavimo. Kai ontologijomis paremtos sistemos auga tiek akiračiu, tiek apimtimi, specialistų sistemose naudojami samprotavimo varikliai tampa nebetinkami. Tokiomis aplinkybėmis, ontologijų saugojimas reliacinėse duomenų bazėse tampa būtinas semantiniame žiniatinklyje ir įmonėse. Šiame darbe atsakoma į klausimą kokiu būdu OWL ontologijas galima efektyviai transformuoti į reliacinių duomenų bazių schemas. / Ontology descriptions are typically used in Semantic Web/Web2.0, but nowadays they find more and more adaptability in everyday Information Systems. Well-formed ontology must have correct syntax and unambiguous machine-understandable interpretation, so it is capable to clearly defining fundamental concepts and relationships of the problem domain. Ontologies are increasingly used in many applications: business process and information integration, search and navigation. Such applications require scalability and performance, efficient storage and manipulation of large scale ontological data. In such circumstances, storing ontologies in relational databases are becoming the relevant needs for Semantic Web and enterprises. For ontology development, Semantic Web languages are dedicated: Resource Description Framework (RDF) and schema RDFS, and Web Ontology Language (OWL) that consists of three sublanguages – OWL Lite, OWL Description Logic (DL) and OWL Full. When ontology based systems are growing in scope and volume, reasoners of expert systems are becoming unsuitable. In this work an algorithm which fully automatically transforms ontologies, represented in OWL, to RDB schemas is proposed. Some concepts, e.g. ontology classes and properties are mapped to relational tables, relations and attributes, other (constraints) are stored like metadata in special tables. Using both direct mapping and metadata, it is possible to obtain appropriate relational structures and not to lose the... [to full text]
68

OWL ontologijų transformavimas į reliacinių duomenų bazių schemas / Transforming OWL Ontologies To Relational Database Schemas

Vyšniauskas, Ernestas 15 January 2007 (has links)
The current work has arisen with respect to the growing importance of ontology modelling in Information Systems development. Due to emerging technologies of Semantic Web, it is desirable to use for this purpose the Web Ontology Language OWL. From the other side, the relational database technology has ensured the best facilities for storing, updating and manipulating the information of problem domain. This work covers analysis of the process how ontology of a particular domain described in OWL may be transformed and stored in a relational database. The algorithms for transformation of domain ontology, described in OWL, to relational database are proposed. According this algorithm, ontology classes are mapped to relational tables, properties to relations and attributes, and constraints – to metadata. The proposed algorithm is capable to transform all OWL Lite and part of OWL DL syntax. The further expansion of the algorithm to cover more capabilities of OWL should be based on the same principles. The prototypical tool, performing transformations, has been implemented as add-in for the ontology development tool “Protégé����. The methodology of transformation is illustrated with an example.
69

Benchmark para métodos de consultas por palavras-chave a bancos de dados relacionais / Benchmark for query methods by keywords to relational databases

Oliveira Filho, Audir da Costa 21 June 2018 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-08-03T11:37:48Z No. of bitstreams: 2 Dissertação - Audir da Costa Oliveira Filho - 2018.pdf: 1703675 bytes, checksum: f21c9ff479b840d0cdd37dfc9827c0dd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-08-03T11:41:39Z (GMT) No. of bitstreams: 2 Dissertação - Audir da Costa Oliveira Filho - 2018.pdf: 1703675 bytes, checksum: f21c9ff479b840d0cdd37dfc9827c0dd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-08-03T11:41:39Z (GMT). No. of bitstreams: 2 Dissertação - Audir da Costa Oliveira Filho - 2018.pdf: 1703675 bytes, checksum: f21c9ff479b840d0cdd37dfc9827c0dd (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-06-21 / Keyword query techniques have been proven to be very effective due of their user-friendliness on the Web. However, much of the data is stored in relational databases, being necessary knowledge of a structured language to access this data. In this sense, during the last decade some works have been proposed with the intention of performing keyword queries to relational databases. However, systems that implement this approach have been validated using ad hoc methods that may not reflect real-world workloads. The present work proposes a benchmark for evaluation of the methods of keyword queries to relational databases defining a standardized form with workloads that are consistent with the real world. This proposal assists in assessing the effectiveness of current and future systems. The results obtained with the benchmark application suggest that there are still many gaps to be addressed by keyword query techniques. / Técnicas de consultas por palavras-chave se mostraram muito eficazes devido à sua facilidade de utilização por usuário na Web. Contudo, grande parte dos dados estão armazenados em bancos de dados relacionais, sendo necessário conhecimento de uma linguagem estruturada para acesso a esses dados. Nesse sentido, durante a última década alguns trabalhos foram propostos com intuito de realizar consultas por palavras-chaves a bancos de dados relacionais. No entanto, os sistemas que implementam essa abordagem foram validados utilizando métodos ad hoc com bancos de dados que podem não refletir as cargas utilizadas no mundo real. O presente trabalho propõe um benchmark para avaliação dos métodos de consultas por palavras-chave a bancos de dados relacionais definindo uma forma padronizada com cargas de trabalhos condizentes com a do mundo real. Esta proposta auxilia na avaliaçãode eficácia dos sistemas atuais e futuros. Os resultados obtidos com a aplicação do benchmark sugerem que ainda existe muitas lacunas a serem tratadas pelas técnicas de consultas por palavras-chave.
70

Uma técnica para ranqueamento de interpretações SQL oriundas de consultas com palavras-chave / A technique forranking SQL interpretations from keyword queries

Sousa, Walisson Pereira de 11 December 2017 (has links)
Submitted by Franciele Moreira (francielemoreyra@gmail.com) on 2018-01-26T12:51:05Z No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-01-29T10:41:52Z (GMT) No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-01-29T10:41:52Z (GMT). No. of bitstreams: 2 Dissertação - Walisson Pereira de Sousa - 2017.pdf: 2525793 bytes, checksum: 0717fb8c52cc2e89d38f1e7c4a763ec1 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-12-11 / Retrieving information using words from a natural language is a simple and already consolidated way to access data on the Web. It would be highly desirable that a similar method could be used to submit queries on databases, thereby freeing the user from learning a query language and knowing the searched database structure. In this sense, a great research effort has been dedicated by the database community in order to develop more efficient query keywords techniques for database access. However, a keyword query can result in a large number of SQL interpretations, most of them irrelevant for the initial query. This work carry out a study of different query interpretations ranking techniques and, finally, proposes a ranking methodology that maximizes the amount of relevant results for keyword queries submitted to relational databases. / Recuperar informações utilizando palavras de uma linguagem natural é uma maneira simples e já consolidada para acessar dados na Web. Seria altamente desejável que um método semelhante fosse utilizado para executar consultas em bancos de dados, liberando assim o usuário do aprendizado de uma linguagem de consulta e o conhecimento da estrutura do banco de dados a ser consultado. Nesse sentido, um grande esforço de pesquisa vem sendo dedicado pela comunidade de Banco de dados, a fim de desenvolver técnicas de consultas com palavras-chave mais eficientes para acesso a bancos de dados. No entanto, uma consulta com palavras-chave pode originar uma grande quantidade de interpretações SQL, boa parte delas resultando em dados irrelevantes para a consulta inicial. Este trabalho realiza um estudo de diferentes técnicas para ranqueamento de interpretações de consultas e, ao final, propõe uma metodologia de ranqueamento que maximiza a quantidade de resultados relevantes para consultas com palavras-chave submetidas a bancos de dados relacionais.

Page generated in 0.1293 seconds