• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 557
  • 231
  • 139
  • 127
  • 110
  • 68
  • 65
  • 43
  • 30
  • 24
  • 19
  • 14
  • 10
  • 9
  • 8
  • Tagged with
  • 1548
  • 408
  • 263
  • 240
  • 233
  • 231
  • 226
  • 213
  • 171
  • 155
  • 145
  • 131
  • 127
  • 120
  • 112
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

PROPAGAÇÃO DE MODIFICAÇÕES EM DOCUMENTOS XML PARA BANCOS DE DADOS RELACIONAIS / CHANGE PROPAGATION FROM XML DOCUMENTS TO RELATIONAL DATABASES

Schuch, Regis Rodolfo 09 May 2014 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Many environments require the storage of XML data (eXtensible Markup Language) in RDB (Relational Databases). In such cases, in addition to mapping the XML schema and data to tables in the RDB, it is also necessary to update the RDB once the XML data are modified. To perform the updating process, this work proposes the DBUpdater (Database Updater), a component that detects and propagates XML changes to a RDB. The content change propagation from XML documents to the RDB is not a task whose execution is straightforward. Due to the absence of a means to track the XML data, a mechanism is needed to generate XML keys which allows the XML data relate to the tuples in the relational tables. The main contributions of this work are: the change detection based on diff algorithms; the generation and assignment of identifiers for the XML nodes; the generation of keys for the XML data based on the identifiers assigned to the nodes; and the definition of equivalence between the detected change operations in relation to the database update operations. This proposal is part of X2Rel (XML to Relational) framework, an environment for storing, maintaining and querying heterogeneous XML data in RDB. / Muitos ambientes requerem o armazenamento de dados XML (eXtensible Markup Language) em BDR (Bancos de Dados Relacionais). Nesses casos, além da mapear o esquema e os dados XML para tabelas no BDR, é necessária a atualização do BDR na medida em que os dados XML sofrem modificações. Para realizar a atualização, este trabalho propõe o DBUpdater (Database Updater), um componente que detecta e propaga modificações de dados XML para BDR. A propagação de modificações no conteúdo dos documentos XML para o BDR não é uma tarefa cuja execução é direta. Devida à ausência de um meio para rastrear os dados XML, é necessário um mecanismo para gerar chaves XML que permitem que os dados XML se relacionem com as tuplas nas tabelas relacionais. As principais contribuições deste trabalho são: a detecção de modificações com base em algoritmos de Diff; a geração e atribuição de identificadores para os nodos XML; a geração de chaves para os dados XML com base nos identificadores atribuídos aos nodos; e a definição de equivalência entre as operações de modificação detectadas em relação às operações de atualização do banco de dados. Esta proposta está inserida no framework X2Rel (XML to Relational), um ambiente de armazenamento, atualização e consulta a dados XML heterogêneos em BDR.
372

Fragmentação e decomposição de consultas em XML / Fragmentation and query decomposition in XML

Silveira, Felipe Victolla January 2006 (has links)
O problema da integração de dados (fragmentação de dados, decomposição de consultas) tem sido largamente estudado na literatura, mas a estrutura hierárquica inerente do modelo XML apresenta problemas que são específicos deste modelo de dados. Cada relacionamento conceitual muitos-para-muitos deve ser mapeado para uma estrutura hierárquica específica em XML. Diferentes fontes XML podem implementar o mesmo relacionamento conceitual muitos-para-muitos de diferentes maneiras. Na abordagem proposta neste trabalho, o problema de integra»c~ao de fontes de dados XML é dividido em dois problemas: (1) naquele da fragmentação de um modelo global do tipo grafo (ex., um modelo ER) em diversos modelos locais do tipo grafo representando conceitualmente fontes de dados e (2) naquele do ma- peamento de um modelo local do tipo grafo em um esquema hierárquico XML. Este trabalho apresenta um conjunto de operadores especificamente projetados para esta abordagem, assim como um mecanismo de decomposi»c~ao que permite que uma con- sulta especificada em um nível conceitual seja decomposta em uma consulta XQuery especificada no nível XML. Como linguagem de consulta para o nível conceitual, é adotado o CXPath (Conceptual XPath), uma linguagem de consulta proposta em um trabalho anterior. / The problem of data integration (query decomposition, data fragmentation) has been widely studied in literature, but the inherent hierarchical nature of XML data presents problems that are specific to this data model. Each many-to-many con- ceptual relationship must be mapped to a specific hierarchical structure in XML. Di®erent XML sources may implement the same many-to-many conceptual rela- tionship in di®erent ways. In our approach the problem of integration of XML data sources is decomposed in two problems: (1) that of fragmentation of a global graph-like model (e.g., an ER model) into several local graph-like models conceptu- ally representing data sources and (2) that of mapping the local graph-like model into an XML tree-like schema. This work presents a set of fragmentation operators specifically designed for our approach, as well as a query decomposition mechanism that allows a query stated at the conceptual level to be decomposed into an XQuery statement at the XML level. As the query language at the conceptual level, we adopt CXPath (conceptual XPath) a query language we have defined in previous work.
373

PathSim : um algoritmo para calcular a similaridade entre caminhos XML / PathSim: A XML path similarity algorithm

Vinson, Alexander Richard January 2007 (has links)
Algoritmos de similaridade que comparam dados expressos em XML são importantes em diversas aplicações que manipulam informações armazenadas nesse padrão. Sistemas de integração de dados XML e de consulta a instâncias XML são exemplos dessas aplicações. A utilização de funções de similaridade para efetuar as comparações nessas aplicações melhora seus resultados finais. A melhora ocorre porque as funções de similaridade possibilitam encontrar estruturas não idênticas às apresentadas nos parâmetros das consultas mas que armazenam informações relevantes. Uma característica importante que pode ser utilizada para definir se dois elementos XML representam o mesmo objeto real é os caminhos que chegam a estes elementos nas suas respectivas árvores. No entanto, os nodos que representam um determinado objeto real em duas instâncias XML diferentes podem se acessados por caminhos distintos, devido a opções de modelagem dos documentos. Portanto um algoritmo para calcular a similaridade entre caminhos XML é importante para as aplicações descritas acima. Neste contexto, esta dissertação objetiva desenvolver um algoritmo de similaridade entre caminhos XML. O resultado principal do trabalho é um algoritmo de similaridade entre caminhos XML, nomeado PathSim, que efetua o cálculo de similaridade entre dois caminhos baseado no número mínimo de operações de edição (inserção, remoção e substituição de nomes de elementos) necessárias para transformar um caminho no outro. Além deste algoritmo, foram desenvolvidas três funções de pré-processamento para simplificar os caminhos XML e melhoram os resultados do algoritmo. Adicionalmente, duas variações do algoritmo PathSim são apresentadas, uma incrementada com comparações entre combinações de nomes de elementos, nomeada PathSimC, e a outra auxiliada por técnicas de alinhamento, nomeada PathSimA. Experimentos utilizando documentos XML criados por terceiros, validam empiricamente os algoritmos PathSim e PathSimC.Nos experimentos, os algoritmos foram comparados a uma abordagem para mensurar a similaridade entre caminhos encontrada na literatura. Os algoritmos apresentam melhores resultados que o baseline. Os ganhos variam de acordo com o ambiente onde os caminhos foram extraídos e com as funções de pré-processamento que foram aplicadas aos caminhos. / Similarity algorithms for comparing XML data are important in various applications that manipulate information stored according to this standard. XML data integration systems and XML instance querying systems are examples of such applications. The use of similarity functions to evaluate comparisons in these applications improves their final results. The improvement occurs because similarity functions allow finding structures that are not identical to the query parameter but store relevant information. One important feature that may be used to define if two XML elements represent the same real world object is the paths that lead to those objects in their corresponding trees. However, the nodes that represent a specific real world object in two different XML instances may be accessed by distinct paths, due to XML design decisions. Thus a method for assessing the similarity of XML paths is important in the applications described above. In this context, the goal of this dissertation is to develop a XML path similarity algorithm. The main contribution of this work is a XML path similarity algorithm, named Path- Sim, that calculates the similarity between two paths by computing the minimum number of edit operations (element name insertions, deletions and substitutions) required to transform one path into another. Besides the algorithm, three preprocessing functions were developed to simplify XML paths and improve the results of the algorithm. Additionally, two variations of PathSim algorithm are presented, one enhanced with comparisons among combinations of element names, named PathSimC, and the other one assisted by alignment techniques, named PathSimA. Experiments using XML documents created by third parties validate the algorithms PathSim and PathSimC empirically. On the experiments, the algorithms are compared to a path similarity algorithm found in the literature. The proposed algorithms presents better results than the baseline. The gains vary according to the environment from which the paths were extracted and to the preprocessing functions applied.
374

Casamento de esquemas XML e esquemas relacionais / Matching of XML schemas and relational schema

Mergen, Sérgio Luis Sardi January 2005 (has links)
O casamento entre esquemas XML e esquemas relacionais é necessário em diversas aplicações, tais como integração de informação e intercâmbio de dados. Tipicamente o casamento de esquemas é um processo manual, talvez suportado por uma interface grá ca. No entanto, o casamento manual de esquemas muito grandes é um processo dispendioso e sujeito a erros. Disto surge a necessidade de técnicas (semi)-automáticas de casamento de esquemas que auxiliem o usuário fornecendo sugestões de casamento, dessa forma reduzindo o esforço manual aplicado nesta tarefa. Apesar deste tema já ter sido estudado na literatura, o casamento entre esquemas XML e esquemas relacionais é ainda um tema em aberto. Isto porque os trabalhos existentes ou se aplicam para esquemas de nidos no mesmo modelo, ou são genéricos demais para o problema em questão. O objetivo desta dissertação é o desenvolvimento de técnicas especí cas para o casamento de esquemas XML e esquemas relacionais. Tais técnicas exploram as particularidades existentes entre estes esquemas para inferir valores de similaridade entre eles. As técnicas propostas são avaliadas através de experimentos com esquemas do mundo real. / The matching between XML schemas and relational schemas has many applications, such as information integration and data exchange. Typically, schema matching is done manually by domain experts, sometimes using a graphical tool. However, the matching of large schemas is a time consuming and error-prone task. The use of (semi-)automatic schema matching techniques can help the user in nding the correct matches, thereby reducing his labor. The schema matching problem has already been addressed in the literature. Nevertheless, the matching of XML schemas and relational schemas is still an open issue. This comes from the fact that the existing work is whether speci c for schemas designed in the same model, or too generic for the problem in discussion. The mais goal of this dissertation is to develop speci c techniques for the matching of XML schemas and relational schemas. Such techniques exploit the particularities found when analyzing the two schemas together, and use these cues to leverage the matching process. The techniques are evaluated by running experiments with real-world schemas.
375

Suporte a consultas temporais por palavras-chave em documentos XML / Supporting temporal keyword queries on XML documents

Manica, Edimar January 2010 (has links)
Consultas por palavras-chave permitem o acesso fácil a dados XML, uma vez que não exigem que o usuário aprenda uma linguagem de consulta estruturada nem estude possíveis esquemas de dados complexos. Com isso, vários motores de busca XML foram propostos para permitir a extração de fragmentos XML relevantes para consultas por palavras-chave. No entanto, esses motores de busca tratam as expressões temporais da mesma forma que qualquer outra palavra-chave. Essa abordagem ocasiona inúmeros problemas, como por exemplo, considerar como casamentos para uma expressão temporal nodos do domínio preço ou código. Este trabalho descreve TPI (Two Phase Interception), uma abordagem que permite o suporte a consultas temporais por palavras-chave em documentos XML orientados a dados. O suporte a consultas temporais é realizado através de uma camada adicional de software que executa duas interceptações no processamento de consultas, realizado por um motor de busca XML. Esta camada adicional de software é responsável pelo tratamento adequado das informações temporais presentes na consulta e no conteúdo dos documentos XML. O trabalho ainda especifica TKC (Temporal Keyword Classification), uma classificação de consultas temporais que serve de guia para qualquer mecanismo de consulta por palavras-chave, inclusive TPI. São apresentados os algoritmos de mapeamento das diferentes formas de predicados temporais por palavras-chave, especificadas em TKC, para expressões relacionais a fim de orientar a implementação do processamento das consultas temporais. É proposto um índice temporal e definidas estratégias para identificação de caminhos temporais, desambiguação de formatos de valores temporais, identificação de datas representadas por vários elementos e identificação de intervalos temporais. São demonstrados experimentos que comparam a qualidade, o tempo de processamento e a escalabilidade de um motor de busca XML com e sem a utilização de TPI. A principal contribuição desse trabalho é melhorar significativamente a qualidade dos resultados de consultas temporais por palavras-chave em documentos XML. / Keyword queries enable users to easily access XML data, since the user does not need to learn a structured query language or study possibly complex data schemas. Therewith, several XML search engines have been proposed to extract relevant XML fragments in response to keyword queries. However, these search engines treat the temporal expressions as any other keyword. This approach may lead to several problems. It could, for example, consider prices and codes as matches to a temporal expression. This work describes TPI (Two Phase Interception), an approach that supports temporal keyword queries on data-centric XML documents. The temporal query support is performed by adding an additional software layer that executes two interceptions in the query processing performed by a XML search engine. This additional software layer is responsible for the adequate treatment of the temporal expressions contained in the query and in the contents of the XML documents. This work also specifies TKC (Temporal Keyword Classification), a temporal query classification to be used as guidance for any keyword query mechanism, including TPI. We present the algorithms for mapping different temporal predicates expressed by keywords to relational expressions in order to guide the implementation of the temporal query processing. We propose a temporal index together with strategies to perform temporal path identification, format disambiguation, identification of dates represented by many elements and detection of temporal intervals. This work also reports on experiments which evaluate quality, processing time and scalability of an XML search engine with TPI and without TPI. The main contribution of this work is the significant improvement in the quality of the results of temporal keyword queries on XML documents.
376

Usando Assertivas de Correspondência para Especificação e Geração de Visões XML para Aplicações Web / Using assertive of correspondence for specification and generation of XML view for applications Web

Lemos, Fernando Cordeiro de January 2007 (has links)
LEMOS, Fernando Cordeiro de. Usando Assertivas de Correspondência para Especificação e Geração de Visões XML para Aplicações Web. 2007. 115 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2007. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-24T19:44:28Z No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-24T19:47:37Z (GMT) No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Made available in DSpace on 2016-06-24T19:47:37Z (GMT). No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) Previous issue date: 2007 / Web applications that have large number of pages, whose contents are dynamically extracted from one or more databases, and that requires data intensive access and update, are known as "data-intensive Web applications" (DIWA applications) [7]. In this work, the requirements for the content of each page of the application are specified by an XML view, which is called Navigation View (NV). We believe that the data of NVs are stored in a relational or XML database. In this work, we propose an approach to specify and generate NVs for Web applications whose content is extracted from one or more data sources. In the proposed approach, a NV is specified conceptually with the help of a set of Correspondence Assertions [44], so that the definition of NV can be generated automatically based on assertions of view. / Aplicações Web que possuem grande número de páginas, cujos conteúdos são dinamicamente extraídos de banco de dados, e que requerem intenso acesso e atualização dos dados, são conhecidas como “data-intensive Web applications” (aplicações DIWA). Neste trabalho, os requisitos de conteúdo de cada página da aplicação são especificados através de uma visão XML, a qual denominamos Visão de Navegação (VN). Consideramos que os dados das VNs estão armazenados em um banco de dados relacional ou XML. Nesse trabalho, propomos um enfoque para especificação e geração de VNs para aplicações Web cujo conteúdo é extraído de uma ou mais fontes de dados. No enfoque proposto, uma VN é especificada conceitualmente com a ajuda de um conjunto de Assertivas de Correspondência, de forma que a definição da VN pode ser gerada automaticamente a partir das assertivas da visão.
377

RepliX: Um mecanismo para a replicação de dados XML / RepliX: a mechanism for XML data replication

Sousa, Flávio Rubens de Carvalho January 2007 (has links)
SOUSA, Flávio Rubens de Carvalho. RepliX: Um mecanismo para a replicação de dados XML. 2007. 77 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2007. / Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-29T17:20:02Z No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) / Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-29T17:21:26Z (GMT) No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) / Made available in DSpace on 2016-06-29T17:21:26Z (GMT). No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) Previous issue date: 2007 / XML tem se tornado um padrão amplamente utilizado na representação e troca de dados em aplicações. Devido a essa crescente utilização do XML, torna-se necessária a existência de sistemas eficientes de armazenamento e recuperação de dados XML. Estão sendo desenvolvidos para este fim Bancos de Dados XML Nativos (BDXNs). Estes bancos implementam muitas das características presentes em Bancos de Dados tradicionais, tais como armazenamento, indexação, processamento de consultas, transações e replicação. Tratando-se especificamente de replicação, a maioria das soluções existentes resolve essa questão apenas utilizando técnicas tradicionais. Todavia, a exibilidade dos dados XML impõe novos desafios, de modo que novas técnicas de replicação devem ser desenvolvidas. Para melhorar o desempenho e a disponibilidade dos BDXNs, esta dissertação propõe o RepliX, um mecanismo para replicação de dados XML que considera as principais características desses dados. Dessa forma, é possível melhorar o tempo de resposta no processamento de consultas e tornar esses sistemas mais tolerantes a falhas. Dentre vários tipos de protocolos de replicação, a utilização da abstração de comunicação em grupos como estratégia de comunicação e detecção de falhas mostrase uma solução eficaz, visto que essa abstração possui técnicas eficientes para troca de mensagens e provê garantias de confiabilidade. Essa estratégia é utilizada no RepliX, que organiza os sites em dois grupos: de atualização e de leitura, permitindo assim balanceamento de carga entre os sites, além de tornar o sistema menos sensível a falhas, já que não há um ponto de falha único em cada grupo. Para validar o RepliX, uma nova camada de replicação foi implementada em um BDXN, a _m de introduzir as características e os comportamentos descritos no mecanismo proposto. Experimentos foram feitos usando essa camada e os resultados obtidos atestam a sua eficácia considerando diferentes aspectos de um banco de dados replicado, melhorando o desempenho desses banco de dados consideravelmente bem como sua disponibilidade. / XML has become a widely used standard for data representation and exchange in applications. The growing usage of XML creates a need for e cient storage and recovery systems for XML data. Native XML DBs (NXDBs) are being developed to target this demand. NXDBs implement many characteristics that are common to traditional DBs, such as storage, indexing, query processing, transactions and replication. Most existing solutions solve the replication issue through traditional techniques. However, the exibility of XML data imposes new challenges, so new replication techniques ought to be developed. To improve the performance and availability of NXDBs, this thesis proposes RepliX, a mechanism for XML data replication that takes into account the main characteristics of this data type, making it possible to reduce the response time in query processing and improving the fault-tolerance property of such systems. Although there are several replication protocols, using the group communication abstraction for communication and fault detection has proven to be a good solution, since this abstraction provides e cient message exchanging techniques and con ability guarantees. RepliX uses this strategy, organizing the sites into an update group and a read-only group in such a way that allows for the use of load balancing among the sites, and makes the system less susceptible to faults, since there is no single point of failure in each group. In order to evaluate RepliX, a new replication layer was implemented on top of an existing NXDB to introduce the characteristics of the proposed mechanism. Several experiments using this layer were conducted, and their results con rm the mechanism's e ciency considering the di erent aspects of a replicated database, improving its performance considerably, as well as its availability.
378

Usando assertivas de correspondência para especificação e geração de visões XML para aplicações web / Using assertive of correspondence for specification and generation of XML view for applications Web

Lemos, Fernando Cordeiro de January 2007 (has links)
LEMOS, Fernando Cordeiro de. Usando assertivas de correspondência para especificação e geração de visões XML para aplicações web. 2007. 127 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2007. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T15:21:34Z No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-15T15:35:40Z (GMT) No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) / Made available in DSpace on 2016-07-15T15:35:40Z (GMT). No. of bitstreams: 1 2007_dis_fclemos.pdf: 1586971 bytes, checksum: d5add67ad3fb40e35813240332a35900 (MD5) Previous issue date: 2007 / Web applications that have large number of pages, whose contents are dynamically extracted from one or more databases, and that requires data intensive access and update, are known as "data-intensive Web applications" (DIWA applications) [7]. In this work, the requirements for the content of each page of the application are specified by an XML view, which is called Navigation View (NV). We believe that the data of NVs are stored in a relational or XML database. In this work, we propose an approach to specify and generate NVs for Web applications whose content is extracted from one or more data sources. In the proposed approach, a NV is specified conceptually with the help of a set of Correspondence Assertions [44], so that the definition of NV can be generated automatically based on assertions of view. / Aplicações Web que possuem grande número de páginas, cujos conteúdos são dinamicamente extraídos de banco de dados, e que requerem intenso acesso e atualização dos dados, são conhecidas como “data-intensive Web applications” (aplicações DIWA). Neste trabalho, os requisitos de conteúdo de cada página da aplicação são especificados através de uma visão XML, a qual denominamos Visão de Navegação (VN). Consideramos que os dados das VNs estão armazenados em um banco de dados relacional ou XML. Nesse trabalho, propomos um enfoque para especificação e geração de VNs para aplicações Web cujo conteúdo é extraído de uma ou mais fontes de dados. No enfoque proposto, uma VN é especificada conceitualmente com a ajuda de um conjunto de Assertivas de Correspondência, de forma que a definição da VN pode ser gerada automaticamente a partir das assertivas da visão.
379

RepliX: Um mecanismo para a replicação de dados XML / RepliX: a mechanism for XML data replication

Sousa, Flávio Rubens de Carvalho January 2007 (has links)
SOUSA, Flávio Rubens de Carvalho Sousa. RepliX: Um mecanismo para a replicação de dados XML. 2007. 91 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2007. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T15:34:43Z No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-15T15:37:49Z (GMT) No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) / Made available in DSpace on 2016-07-15T15:37:49Z (GMT). No. of bitstreams: 1 2007_dis_frcsousa.pdf: 4193448 bytes, checksum: 9f20d4c36e05e635c6fe3b3114e2228c (MD5) Previous issue date: 2007 / XML has become a widely used standard for data representation and exchange in applications. The growing usage of XML creates a need for e cient storage and recovery systems for XML data. Native XML DBs (NXDBs) are being developed to target this demand. NXDBs implement many characteristics that are common to traditional DBs, such as storage, indexing, query processing, transactions and replication. Most existing solutions solve the replication issue through traditional techniques. However, the exibility of XML data imposes new challenges, so new replication techniques ought to be developed. To improve the performance and availability of NXDBs, this thesis proposes RepliX, a mechanism for XML data replication that takes into account the main characteristics of this data type, making it possible to reduce the response time in query processing and improving the fault-tolerance property of such systems. Although there are several replication protocols, using the group communication abstraction for communication and fault detection has proven to be a good solution, since this abstraction provides e cient message exchanging techniques and con ability guarantees. RepliX uses this strategy, organizing the sites into an update group and a read-only group in such a way that allows for the use of load balancing among the sites, and makes the system less susceptible to faults, since there is no single point of failure in each group. In order to evaluate RepliX, a new replication layer was implemented on top of an existing NXDB to introduce the characteristics of the proposed mechanism. Several experiments using this layer were conducted, and their results con rm the mechanism's e ciency considering the di erent aspects of a replicated database, improving its performance considerably, as well as its availability. / XML tem se tornado um padrão amplamente utilizado na representação e troca de dados em aplicações. Devido a essa crescente utilização do XML, torna-se necessária a existência de sistemas eficientes de armazenamento e recuperação de dados XML. Estão sendo desenvolvidos para este fim Bancos de Dados XML Nativos (BDXNs). Estes bancos implementam muitas das características presentes em Bancos de Dados tradicionais, tais como armazenamento, indexação, processamento de consultas, transações e replicação. Tratando-se especificamente de replicação, a maioria das soluções existentes resolve essa questão apenas utilizando técnicas tradicionais. Todavia, a exibilidade dos dados XML impõe novos desafios, de modo que novas técnicas de replicação devem ser desenvolvidas. Para melhorar o desempenho e a disponibilidade dos BDXNs, esta dissertação propõe o RepliX, um mecanismo para replicação de dados XML que considera as principais características desses dados. Dessa forma, é possível melhorar o tempo de resposta no processamento de consultas e tornar esses sistemas mais tolerantes a falhas. Dentre vários tipos de protocolos de replicação, a utilização da abstração de comunicação em grupos como estratégia de comunicação e detecção de falhas mostrase uma solução eficaz, visto que essa abstração possui técnicas eficientes para troca de mensagens e provê garantias de confiabilidade. Essa estratégia é utilizada no RepliX, que organiza os sites em dois grupos: de atualização e de leitura, permitindo assim balanceamento de carga entre os sites, além de tornar o sistema menos sensível a falhas, já que não há um ponto de falha único em cada grupo. Para validar o RepliX, uma nova camada de replicação foi implementada em um BDXN, a _m de introduzir as características e os comportamentos descritos no mecanismo proposto. Experimentos foram feitos usando essa camada e os resultados obtidos atestam a sua eficácia considerando diferentes aspectos de um banco de dados replicado, melhorando o desempenho desses banco de dados consideravelmente bem como sua disponibilidade.
380

XMAP: MAPEAMENTO E ARMAZENAMENTO DE DADOS XML EM BANCOS DE DADOS RELACIONAIS / XMAP: MAPPING AND STORAGE OF XML DATA IN RELATIONAL DATABASES

Avelar, Francisco Tiago Machado de 30 March 2012 (has links)
Information management can be achieved with the materialization of data sources in a persistent and accessible way. This materialization can occur through the use of a relational database management system. Several knowledge domains make use of XML as standard for storing and processing of documents. However, XML documents from one application domain may have different structures, making more difficult the mapping process to a single database schema. As a solution of this problem, this work assumes that there is an ontology that describes the input XML documents. Thus, the ontology is mapped to a relational schema and the XML files described by the ontology are stored into the database. On considering this scenario, this work proposes: the definition of mapping rules from XML to relational schema, previously generated; the generation of transformation functions for solving structural and semantic conflicts between the input XML data; and the mechanism definition for the XML data insertion into the relational database. / O gerenciamento de informação pode ser possibilitado através da materialização das fontes de dados de maneira persistente e acessível. Tal materialização pode ocorrer através do uso de um sistema gerenciador de banco de dados relacional. Diversos domínios de conhecimento usam de XML como padrão para o armazenamento e para o processamento de documentos. No entanto, documentos XML de um mesmo domínio de aplicação podem ter estruturas diferentes, tornando mais difícil o processo de mapeamento para um único esquema de banco de dados. Para solucionar esse problema, este trabalho assume que existe uma ontologia que descreve os documentos XML de entrada. Dessa forma, a ontologia é mapeada para um esquema relacional e posteriormente os arquivos XML originais descritos pela ontologia são armazenados no banco de dados. Considerando o contexto descrito, este trabalho propõe: a definição de regras de mapeamento de dados XML para o esquema relacional, previamente gerado; a criação de funções de transformação para a solução de conflitos estruturais e semânticos entre os dados XML de entrada; e a definição do mecanismo de inserção de dados XML em bancos de dados relacionais.

Page generated in 0.0309 seconds