• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 250
  • 10
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 263
  • 170
  • 155
  • 98
  • 69
  • 67
  • 38
  • 35
  • 30
  • 27
  • 26
  • 24
  • 24
  • 22
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Tratamento de conflitos e detecção de deltas em atualização através de visões XML / Conflict resolution and difference detection in updates through XML views

Vargas, Andre Prisco January 2007 (has links)
A linguagem XML tem se tornado um padrão no intercâmbio de informações naWeb. No entanto, a maioria das organizações continua a armazenar seus dados em bancos de dados relacionais. Diante deste ambiente, surge a necessidade de se construir aplicações que permitam às empresas o intercâmbio de informações via XML, mas sem que estas empresas tenham que migrar suas bases relacionais. Neste trabalho, é apresentada uma técnica para importar e exportar documentos XML, focada em cenários entre empresas onde visões XML são extraídas de uma base de dados relacional e enviadas via Web (ou qualquer outro meio) para outra aplicação que as edita e as retorna. Através da edição da visão XML, a própria base de dados relacional é modificada, atualizando assim os dados da empresa. A base de dados relacional deve ser atualizada com as novas informações da visão XML. Neste tipo de transação tem-se as seguintes considerações: 1. A visão XML pode ser atualizada por qualquer aplicação. Editores de texto, banco de dados XML e aplicações específicas estão entre as aplicações que podematualizála. 2. A aplicação que recebe a visão XML fica de posse dela por um período não determinado, podendo inclusive não retornar a visão. Durante este período a aplicação pode ficar desconectada da base de dados geradora da visão XML. 3. Enquanto a visão XML está sendo editada, outras aplicações podem acessar e atualizar a base de dados. 4. Não existe conhecimento semântico específico sobre os dados contidos na visão XML. Portanto, para este tipo de aplicação, não é realista fazer um controle de concorrência baseado em bloqueios das tuplas contidas na visão. Da mesma forma, não é possível esperar que o usuário expresse, através de uma linguagem ou formato padrão, as alterações efetuadas na visão XML. Ocorre neste ambiente dois problemas: (i) identificar as modificações feitas na visão e (ii) identificar e resolver conflitos que possam ser causados por modificações na base de dados durante a transação. O objetivo deste trabalho é desenvolver uma técnica para exportação e importação de visões XML que minimize estes dois problemas. Neste trabalho é proposta uma arquitetura que utiliza algoritmos de detecção de diferenças em documento XML e uma extensão do sistema de atualização de visões XML PATAXÓ, um sistema já existente de importação e exportação de documentos XML em bases relacionais. Também é apresentado, para o módulo de gerenciamento de transações da arquitetura, uma proposta de detecção e tratamento de conflitos baseada em regras geradas apenas sobre a estrutura da visão XML. / XML has become the standard format for exchanging information on the Web. However, many organizations continue storing their data in relational databases. In this context, it becomes necessary to build applications that allow companies to exchange information via XML without having to share their relational databases. This thesis introduces a technique for exporting and importing XML documents from relational databases in a scenario of business to business (B2B) applications. In the considered scenario, a XML view is extracted from a relational database and then sent via the Web (or any other means) to another separate application where the information is edited and then sent back after a certain period of time. Changes introduced on the XML view must be mapped into updates on the relational database, thus implementing business transactions etc. These types of transaction have the following considerations. 1) Any application may be used to edit the XML view. There is no need for a specific application to update it. 2) The application that receives the XML view retains its view during an indeterminate period of time having the option of not returning the view. During this period of time, the application is disconnected from the relational DBMS. 3) During the period of time in which the XML view is being updated, other applications may access and update the database. 4) There is no specific semantic knowledge regarding the data contained within the XML view. Therefore, with this type of application, it is not realistic to have a pessimistic concurrency control mecahnism based on data locking. In the same way, it is not realistic to expect a user to express the updates contained within the XML view through a specific language. Thus there are two main problems to be solved. Firstly, the identification of which modifications were made within the view, and secondly, identifying and solving conflicts that may arise due to updates in the database during the transaction. The objective of this thesis is to develop a technique for exporting and importing XML views that addresses these two problems. The thesis describes an approach to detect XML differences, as well as a extension of Pataxó, an already existing XML import/export system for relational databases. Additionally, the thesis describes the transaction management module that implements the proposed approach for detecting and handling conflicts due to updates on the XML view.
132

Suporte a consultas temporais por palavras-chave em documentos XML / Supporting temporal keyword queries on XML documents

Manica, Edimar January 2010 (has links)
Consultas por palavras-chave permitem o acesso fácil a dados XML, uma vez que não exigem que o usuário aprenda uma linguagem de consulta estruturada nem estude possíveis esquemas de dados complexos. Com isso, vários motores de busca XML foram propostos para permitir a extração de fragmentos XML relevantes para consultas por palavras-chave. No entanto, esses motores de busca tratam as expressões temporais da mesma forma que qualquer outra palavra-chave. Essa abordagem ocasiona inúmeros problemas, como por exemplo, considerar como casamentos para uma expressão temporal nodos do domínio preço ou código. Este trabalho descreve TPI (Two Phase Interception), uma abordagem que permite o suporte a consultas temporais por palavras-chave em documentos XML orientados a dados. O suporte a consultas temporais é realizado através de uma camada adicional de software que executa duas interceptações no processamento de consultas, realizado por um motor de busca XML. Esta camada adicional de software é responsável pelo tratamento adequado das informações temporais presentes na consulta e no conteúdo dos documentos XML. O trabalho ainda especifica TKC (Temporal Keyword Classification), uma classificação de consultas temporais que serve de guia para qualquer mecanismo de consulta por palavras-chave, inclusive TPI. São apresentados os algoritmos de mapeamento das diferentes formas de predicados temporais por palavras-chave, especificadas em TKC, para expressões relacionais a fim de orientar a implementação do processamento das consultas temporais. É proposto um índice temporal e definidas estratégias para identificação de caminhos temporais, desambiguação de formatos de valores temporais, identificação de datas representadas por vários elementos e identificação de intervalos temporais. São demonstrados experimentos que comparam a qualidade, o tempo de processamento e a escalabilidade de um motor de busca XML com e sem a utilização de TPI. A principal contribuição desse trabalho é melhorar significativamente a qualidade dos resultados de consultas temporais por palavras-chave em documentos XML. / Keyword queries enable users to easily access XML data, since the user does not need to learn a structured query language or study possibly complex data schemas. Therewith, several XML search engines have been proposed to extract relevant XML fragments in response to keyword queries. However, these search engines treat the temporal expressions as any other keyword. This approach may lead to several problems. It could, for example, consider prices and codes as matches to a temporal expression. This work describes TPI (Two Phase Interception), an approach that supports temporal keyword queries on data-centric XML documents. The temporal query support is performed by adding an additional software layer that executes two interceptions in the query processing performed by a XML search engine. This additional software layer is responsible for the adequate treatment of the temporal expressions contained in the query and in the contents of the XML documents. This work also specifies TKC (Temporal Keyword Classification), a temporal query classification to be used as guidance for any keyword query mechanism, including TPI. We present the algorithms for mapping different temporal predicates expressed by keywords to relational expressions in order to guide the implementation of the temporal query processing. We propose a temporal index together with strategies to perform temporal path identification, format disambiguation, identification of dates represented by many elements and detection of temporal intervals. This work also reports on experiments which evaluate quality, processing time and scalability of an XML search engine with TPI and without TPI. The main contribution of this work is the significant improvement in the quality of the results of temporal keyword queries on XML documents.
133

Análise automática de código para programação orientada a aspectos / Automatic source code analysis for aspect‐oriented programming

Hecht, Marcelo Victora January 2007 (has links)
O Desenvolvimento de Software Orientado a Aspectos (AOSD) vem se consolidando como uma forma de resolver vários problemas das técnicas convencionais de programação, em particular em sistemas onde diversos interesses se encontram entrelaçados. A popularização dessa tecnologia faz surgir a necessidade de metodologias e ferramentas que facilitem o seu uso, como refatorações que levem em consideração suas características. No entanto as técnicas de modelagem de software disponíveis para AOSD não tem amadurecido no mesmo passo que as de implementação. Assim, para se poder pensar em mecanismos automáticos que trabalhem com a separação de interesses, é preciso verificar se as técnicas de modelagem existentes comportam isso. Este trabalho propõe uma adaptação da abordagem Theme de modelagem, para que ela permita uma representação mais fiel de sistemas que utilizam orientação a aspectos, em especial os que utilizam a linguagem AspectJ. Essa técnica proposta é utilizada para demonstrar algumas maneiras de detectar bad smells em sistemas orientados a aspectos. Também é mostrado como essa modelagem pode ser usada como base para a geração automática de código orientado a aspectos, e como pode ser feita a engenharia reversa de código existente de forma que ele possa ser analisado em forma de modelo. / Aspect‐Oriented Software Development (AOSD) is increasingly being considered a way to solve several problems in conventional programming methods, particularly in systems with crosscutting concerns. The popularization of this technology brings the need for methodologies and tools to ease its use, such as refactorings that take into account its characteristics. However modeling techniques available for AOSD are not maturing at the same rate as implementation techniques. Thus, in order to be able to devise automatic mechanisms that deal with separation of concerns, it is first necessary to verify if existing modeling techniques support that. In this work, we propose an adaptation of the Theme modeling approach, so that it represents aspect‐oriented systems more closely, especially those using the AspectJ language. This technique is used to demonstrate a few ways of detecting bad smells in aspect‐oriented systems. It is also shown how this model can be used as a basis for the automatic generation of aspectoriented code, and how existing code can be reverse‐engineered so that its model can be analyzed.
134

Organização e armazenamento de conteúdo instrucional no ambiente AdaptWeb utilizando XML

Amaral, Marília Abrahão January 2002 (has links)
O uso da Internet como ferramenta de ensino tem se tornado cada vez mais freqüente. A recente popularização da Internet vem permitindo o desenvolvimento de ambientes de ensino-aprendizagem baseados na Web. Os principais recursos explorados para fins educacionais são hipertexto e hipermídia, que proporcionam uma grande gama de elementos para o instrutor que pretende utilizar a WWW. Este trabalho está inserido no desenvolvimento do ambiente AdaptWeb (Ambiente de Ensino e Aprendizagem Adaptativo para a Web), que visa o desenvolvimento de um ambiente de educação a distância. A arquitetura do ambiente é composta por quatro módulos entre eles o módulo de Armazenamento de dados que armazena todos os dados provenientes da fase de Autoria utilizando XML (Extensible Markup Language). Na etapa de Autoria é feita a inserção de todos os dados relativos a disciplina que deseja disponibilizar, estes dados serão armazenados temporariamente em uma representação matricial em memória. A entrada de dados do módulo de Armazenamento de Dados é esta representação matricial que serve então como base para a geração dos arquivos XML, que são utilizados nas demais etapas do ambiente. Para a validação dos arquivos XML foram desenvolvidas DTD (Document Type Definition) e também foi implementado um analisador de documentos XML, utilizando a API (Application Programming Interface) DOM (Document Object Model), para efetuar a validação sintática destes documentos. Para conversão da representação matricial em memória foi especificado e implementado um algoritmo que funciona em conformidade com as DTD especificadas e com a sintaxe da linguagem XML.
135

Geração de regras de extração de dados em páginas HTML

Caldas, Paracelso de Oliveira January 2003 (has links)
Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.
136

From XML to relational view updates: applying old solutions to solve a new problem / De atualizações sobre visões XML para atualizações sobre visões relacionais: aplicando soluções antigas a um novo problema

Braganholo, Vanessa de Paula January 2004 (has links)
XML vem se tornando um importante meio para intercâmbio de dados, e é frequentemente usada com uma interface para - isto é, uma visão de - um banco de dados relacional. Apesar de existirem muitos trabalhos que tratam de consultas a bancos de dados através de visões XML, o problema de atualização de bancos de dados relacionais através de visões XML não tem recebido muita atenção. Neste trabalho, apresentam-se os primeiros passos para a solução deste problema. Usando query trees para capturar noções de seleção, projeção, aninhamento, agrupamento e conjuntos heterogêneos, presentes na maioria das linguagens de consulta XML, demonstra-se como visões XML expressas através de query trees podem ser mapeadas para um conjunto de visões relacionais correspondentes. Consequentemente, esta tese transforma o problema de atualização de bancos de dados relacionais através de visões XML em um problema clássico de atualização de bancos de dados através de visões relacionais. A partir daí, este trabalho mostra como atualizações na visão XML são mapeadas para atualizações sobre as visões relacionais correspondentes. Trabalhos existentes em atualização de visões relacionais podem então ser aplicados para determinar se as visões são atualizáveis com relação àquelas atualizações relacionais, e em caso a rmativo, traduzir as atualizações para o banco de dados relacional. Como query trees são uma caracterização formal de consultas de de nição de visões, elas não são adequadas para usuários nais. Diante disso, esta tese investiga como um subconjunto de XQuery pode ser usado como uma linguagem de de nição das visões, e como as query trees podem ser usadas como uma representação intermedi ária para consultas de nidas nesse subconjunto. / XML has become an important medium for data exchange, and is frequently used as an interface to - i.e. a view of - a relational database. Although lots of work have been done on querying relational databases through XML views, the problem of updating relational databases through XML views has not received much attention. In this work, we give the rst steps towards solving this problem. Using query trees to capture the notions of selection, projection, nesting, grouping, and heterogeneous sets found throughout most XML query languages, we show how XML views expressed using query trees can be mapped to a set of corresponding relational views. Thus, we transform the problem of updating relational databases through XML views into a classical problem of updating relational databases through relational views. We then show how updates on the XML view are mapped to updates on the corresponding relational views. Existing work on updating relational views can then be leveraged to determine whether or not the relational views are updatable with respect to the relational updates, and if so, to translate the updates to the underlying relational database. Since query trees are a formal characterization of view de nition queries, they are not well suited for end-users. We then investigate how a subset of XQuery can be used as a top level language, and show how query trees can be used as an intermediate representation of view de nitions expressed in this subset.
137

Ambiente para especificação de aplicações multimídia com suporte de qualidade de serviço.

Thereza, Wesley Barbosa 23 August 2004 (has links)
Made available in DSpace on 2016-06-02T19:05:22Z (GMT). No. of bitstreams: 1 DissWBT.pdf: 1088424 bytes, checksum: 36aa6863e4a89cacf00987b11496bd0d (MD5) Previous issue date: 2004-08-23 / This work describes an environment for specification of distributed multimedia applications with demanded Quality of Service (QoS) detailing. The description of the application is made in a hierarchic way, in the user, application and resource level, adding the demanded QoS parameters and the adaptation rules to be applied for the Quality of Service monitoring/ (re)negotiation. These rules and QoS parameters will be responsible for the activation of the system adaptation to guarantee its execution in compliance with the Quality of Service negotiated in the specification. After the specification phase of the distributed multimedia system, the environment generates the documentation in a specification language of system with QoS detailing and its adaptation/ (re)negotiation forms. This documentation feeds NIST Net emulator, allowing that the results can be analyzed by the verification of the multimedia system behavior and the emulated system. / Esse trabalho descreve um ambiente para especificação de aplicações multimídia distribuída com detalhamento da Qualidade de Serviço (Quality of Service QoS) exigida. A descrição da aplicação é feita de forma hierárquica, nos níveis de usuário, aplicação e recursos, acrescentando os parâmetros de QoS exigidos e as regras de adaptação a serem aplicadas para o monitoramento/ (re)negociação da Qualidade de Serviço. Essas regras e parâmetros de QoS serão responsáveis para a ativação da adaptação do sistema de forma a garantir a sua execução em conformidade com a Qualidade de Serviço negociada na especificação. Após a fase de especificação do sistema multimídia distribuído, o ambiente gera a documentação em uma linguagem de especificação de sistema com detalhamento da QoS e suas formas de adaptação/ (re)negociação. Essa documentação alimenta o emulador Nist Net, permitindo que os resultados possam ser analisados mediante a verificação do comportamento do sistema multimídia via sistema emulado.
138

Estimativa de parâmetros populacionais do boto-cinza, Sotalia guianensis (Van Bénéden, 1864) (Cetacea, Delphinidae) na Baía de Paraty (RJ) / Estimativa de parâmetros populacionais do boto-cinza, Sotalia guianensis (Van Bénéden, 1864) (Cetacea, Delphinidae) na Baía de Paraty (RJ) / Estimation of population parameters of the Guiana dolphin, Sotalia guianensis (Van Bénéden, 1864) (Cetacea, Delphinidae) in Paraty Bay (RJ). / Estimation of population parameters of the Guiana dolphin, Sotalia guianensis (Van Bénéden, 1864) (Cetacea, Delphinidae) in Paraty Bay (RJ).

Sara Cristina Pereira de Souza 14 March 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Estudos envolvendo estimativas de parâmetros populacionais de cetáceos baseados em dados de foto-identificação têm crescido ao longo dos anos, possibilitando estimar parâmetros como abundância, sobrevivência, probabilidade de captura e padrões de emigração. No Brasil, ainda são poucos os estudos com cetáceos que utilizam essa abordagem, contudo, eles estão aumentando, principalmente com a espécie Sotalia guianensis (van Bénéden, 1864), conhecida como boto-cinza. O objetivo desse trabalho foi estimar a sobrevivência, a probabilidade de captura, a emigração e a abundância da população de botos-cinza na Baía de Paraty (RJ; 2307S 4433W), utilizando modelos de marcação-recaptura baseados em dados de foto-identificação, entre os anos de 2005 e 2009. Os cruzeiros foram realizados entre agosto de 2005 e julho de 2009 com uma embarcação de 26 pés e motor de 200hp. As fotografias das nadadeiras dorsais foram tomadas com a utilização de uma câmera digital Canon 20D equipada com lente de zoom 100-400mm. Foram realizadas 60 saídas de campo na Baía de Paraty totalizando 172 horas de esforço no campo, sendo 72 horas de esforço fotográfico. Nas 42 saídas com observação de botos-cinza foram efetuadas 27.892 fotografias e, destas, 6.612 (23,7%) foram consideradas adequadas e utilizadas na identificação dos indivíduos de boto-cinza. Um total de 621 indivíduos foi catalogado com base em marcas permanentes na nadadeira dorsal. Os históricos individuais de captura foram analisados no programa MARK. A estimativa de sobrevivência variou de 0,82 ( 0,05) a 0,85 ( 0,05) e a probabilidade de captura variou de 0,16 ( 0,04) a 0,40 ( 0,06). O número de indivíduos marcados na população estimado pelo modelo de Jolly-Seber foi de N = 586 ( 114,66) (IC: 361-811). A proporção de animais marcados na população para o modelo de JS foi de 0,66 ( 0,03). A partir desse valor, foi possível obter uma abundância total de 884 indivíduos ( 176,8) (IC: 602-1296). A probabilidade de emigração temporária (γ``) e de permanecer fora da área (γ`) foi de 0,43 ( 0,07) e a probabilidade de captura/recaptura variou de 0,01 ( 0,01) a 0,42 ( 0,05). A probabilidade de permanência na área (1 - γ``), assim como a probabilidade de retorno da emigração temporária (1 - γ`) foi 0,57. Apesar dos movimentos significativos de indivíduos transientes, uma vez que a área amostrada é menor do que as áreas de vida que se tem estimadas para o boto-cinza, os dados indicam uma residência moderada dos botos-cinza. A abundância anual total variou de 325 para o ano de 2005 a 448 para o ano de 2009. A análise de poder determinou que seriam necessários nove anos de estudo para observar uma tendência de queda de 5% no tamanho da população. Os resultados reforçam que a Baía de Paraty abriga uma das maiores populações já estimadas para Sotalia guianensis.
139

Inteligência de processos de negócio: uma proposta de padronização entre as etapas de mineração de dados e visualização dos resultados

Garcia, Rafael Saraiva January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:35Z (GMT). No. of bitstreams: 1 000400741-Texto+Completo-0.pdf: 8197264 bytes, checksum: 06de0e14d6fe03643c75f2ccd841d590 (MD5) Previous issue date: 2007 / Several business processes may be automated using Workflow systems. Some of these processes are strategically important and require tools to allow managerial analyses and assist process managers in decision making. Thus, the application of knowledge discovery techniques regarding records of steps of business processes shows great promise. Yet, the computational environment adopted by KDD may be significantly complex, with steps executed independently such as seen in a service-oriented environment. This architecture poses a problem linked to the exchange of information between process steps, since each service may have been written in different languages and requires data to be allocated as a predefined format. In this case, if the format is exclusive, different applications may operate using the same data, adding an array of procedural options. In this sense, this paper addresses an approach to make independent two steps of the knowledge discovery process: data mining and visualization of results. With this aim, the solution proposed is built on the use of XML and XML Schema technologies for the definition of data output and input structures of algorithms for data mining and visualization techniques. Moreover, the use of XLST techniques contributes to the automation of the transformation of formats. The validation of the solution, which was developed over the pertinent theory, was carried out with experiments that used free code implementation. The main contribution of this paper lies in the generation of exclusive and generic formats for information exchange between the steps mentioned and their transformation. / Diversos processos de negócio das organizações podem ser automatizados com o auxílio de sistemas de Workflow. Alguns deles, estrategicamente importantes, necessitam de ferramentas que permitam análises gerenciais e auxiliem os gestores no processo de tomada de decisão. Neste contexto, a aplicação das técnicas de descoberta de conhecimento sobre os registros de execução das instâncias dos processos de negócio mostra-se uma prática promissora. No entanto, o ambiente computacional utilizado pelas aplicações de KDD pode ser significativamente complexo, tendo suas etapas executadas de forma independente como, por exemplo, em um ambiente orientado a serviços. Esta arquitetura possui um problema relacionado à troca de informações entre as etapas do processo, visto que cada serviço pode ter sido escrito em linguagens diferentes e necessitar que os dados estejam dispostos em um determinado formato. Neste caso, uma vez que este formato seja único, distintas aplicações podem trabalhar utilizando mesmos dados, agregando ao procedimento com diversidade de opções. Seguindo esta problemática, este trabalho versa sobre uma abordagem que visa tornar independentes duas etapas do processo de descoberta de conhecimento: a mineração de dados e a visualização dos resultados. Para isto, a solução proposta está baseada no uso das tecnologias de XML e XML Schema para a definição de estruturas para as saídas e entradas dos algoritmos de mineração e técnicas de visualização. Além disto, o uso de técnicas de XSLT contribui para que a transformação entre estes formatos possa ser realizada de modo automatizado. Para a validação da solução, criada com base teórica, foram realizadas alguns testes utilizando as implementações de código livre. A principal contribuição deste trabalho está na criação de formatos únicos e genéricos para a troca de informações entre as etapas citadas, bem como sua transformação.
140

Casamento de esquemas XML e esquemas relacionais / Matching of XML schemas and relational schema

Mergen, Sérgio Luis Sardi January 2005 (has links)
O casamento entre esquemas XML e esquemas relacionais é necessário em diversas aplicações, tais como integração de informação e intercâmbio de dados. Tipicamente o casamento de esquemas é um processo manual, talvez suportado por uma interface grá ca. No entanto, o casamento manual de esquemas muito grandes é um processo dispendioso e sujeito a erros. Disto surge a necessidade de técnicas (semi)-automáticas de casamento de esquemas que auxiliem o usuário fornecendo sugestões de casamento, dessa forma reduzindo o esforço manual aplicado nesta tarefa. Apesar deste tema já ter sido estudado na literatura, o casamento entre esquemas XML e esquemas relacionais é ainda um tema em aberto. Isto porque os trabalhos existentes ou se aplicam para esquemas de nidos no mesmo modelo, ou são genéricos demais para o problema em questão. O objetivo desta dissertação é o desenvolvimento de técnicas especí cas para o casamento de esquemas XML e esquemas relacionais. Tais técnicas exploram as particularidades existentes entre estes esquemas para inferir valores de similaridade entre eles. As técnicas propostas são avaliadas através de experimentos com esquemas do mundo real. / The matching between XML schemas and relational schemas has many applications, such as information integration and data exchange. Typically, schema matching is done manually by domain experts, sometimes using a graphical tool. However, the matching of large schemas is a time consuming and error-prone task. The use of (semi-)automatic schema matching techniques can help the user in nding the correct matches, thereby reducing his labor. The schema matching problem has already been addressed in the literature. Nevertheless, the matching of XML schemas and relational schemas is still an open issue. This comes from the fact that the existing work is whether speci c for schemas designed in the same model, or too generic for the problem in discussion. The mais goal of this dissertation is to develop speci c techniques for the matching of XML schemas and relational schemas. Such techniques exploit the particularities found when analyzing the two schemas together, and use these cues to leverage the matching process. The techniques are evaluated by running experiments with real-world schemas.

Page generated in 0.0761 seconds