• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6156
  • 341
  • 174
  • 151
  • 151
  • 146
  • 78
  • 73
  • 62
  • 59
  • 58
  • 58
  • 7
  • 3
  • 3
  • Tagged with
  • 6646
  • 2725
  • 1380
  • 1042
  • 911
  • 895
  • 859
  • 753
  • 748
  • 692
  • 685
  • 659
  • 621
  • 609
  • 567
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Um esquema compilativo para linguagens de operação de banco de dados

Iochpe, Cirano January 1984 (has links)
Este trabalho apresenta o estudo feito sobre esquemas compilativos para linguagens não-procedurais, de operação de banco de dados, baseados na abordagem relacionai e propõe uma técnica de geração de código para a linguagem LOBAN (Linguagem de Operação de Banco de Dados), sendo implementada, através do Sistema L, na Universidade Federal do Rio Grande do Sul. LOBAN é uma linguagem de alto nível que apresenta, entre outras, funções equivalentes às da álgebra relacional. São apresentados o projeto e a especificação de um módulo gerador de código para o Sistema L, baseado na técnica proposta, além de uma nova arquitetura para o sistema, a fim de que este suporte uma interface LOBAN embutida em Pascal. / This work presents a study of compilation schemes for non-procedural languages used as interfaces of database systems based on the relational approach, and proposes a code generation technique for LOBAN (in English, DABOL-Data Base Operation Language) now being implemented through System L, in the Universidade Federal do Rio Grande do Sul (Brazil). DABOL is a high level language that offers, among others, functions equivalents to those of the relational algebra. The project and specification of a code generation module for the System L, based on the proposed technique, are presented together with a new architecture of the system that supports an embedded interface of LOBAN in Pascal.
102

Um meta esquema para especificação do Modelo Temporal de versões em XML

Rossetti, Lialda Lúcia Fernandes January 2002 (has links)
As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.
103

Modelo temporal de versionamento com suporte à evolução de esquemas

Galante, Renata de Matos January 2003 (has links)
A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.
104

A utilização de raciocínio baseado em casos para a análise de crédito e cobrança

Isolani, Marcelo Costa January 2002 (has links)
Data Warehouse (DW) é um processo que aglutina dados de fontes heterogêneas, incluindo dados históricos e dados externos para atender à necessidade de consultas estruturadas e ad-hoc, relatórios analíticos e de suporte de decisão. Já um Case-Based Reasoning (CBR) é uma técnica de Inteligência Artificial (AI – Artificial Intelligence) para a representação de conhecimento e inferência, que propõe a solução de novos problemas adaptando soluções que foram usadas para resolver problemas anteriores. A descrição de um problema existente, ou um caso é utilizado para sugerir um meio de resolver um novo problema, avisar o usuário de possíveis falhas que ocorreram anteriormente e interpretar a situação atual. Esta dissertação tem por objetivo apresentar um estudo do uso de um DW combinado com um CBR para a verificação de “risco” de inadimplência no setor de telecomunicações. Setor este que devido as grandes mudanças que ocorreram no mercado, que passam desde a privatização do setor e a entrada de novas operadoras fixas e celulares, criando um ambiente de concorrência, anteriormente inexistente, possibilitando assim ao cliente trocar de operadora ou até mesmo deixar a telefonia fixa e ficar somente com a celular, e vai até ao fato da estabilização econômica e as novas práticas de mercado, que determinou a baixa das multas, tornando assim compensador aos clientes deixar as faturas vencidas a perder juros de aplicações ou pagar juros bancários para quitar a sua dívida, visto que a empresa telefônica só pode aplicar as sanções com o prazo de 30 dias. Este trabalho mostra o desenvolvimento de um CBR para aplicação na área de Crédito e Cobrança, onde são detalhados os vários passos, a utilização do mesmo junto ao um DW, o que proporciona a comparação com desenvolvimento de outros sistemas similares e as diferenças (vantagens e desvantagens) que isso traz ao mesmo.
105

Um esquema compilativo para linguagens de operação de banco de dados

Iochpe, Cirano January 1984 (has links)
Este trabalho apresenta o estudo feito sobre esquemas compilativos para linguagens não-procedurais, de operação de banco de dados, baseados na abordagem relacionai e propõe uma técnica de geração de código para a linguagem LOBAN (Linguagem de Operação de Banco de Dados), sendo implementada, através do Sistema L, na Universidade Federal do Rio Grande do Sul. LOBAN é uma linguagem de alto nível que apresenta, entre outras, funções equivalentes às da álgebra relacional. São apresentados o projeto e a especificação de um módulo gerador de código para o Sistema L, baseado na técnica proposta, além de uma nova arquitetura para o sistema, a fim de que este suporte uma interface LOBAN embutida em Pascal. / This work presents a study of compilation schemes for non-procedural languages used as interfaces of database systems based on the relational approach, and proposes a code generation technique for LOBAN (in English, DABOL-Data Base Operation Language) now being implemented through System L, in the Universidade Federal do Rio Grande do Sul (Brazil). DABOL is a high level language that offers, among others, functions equivalents to those of the relational algebra. The project and specification of a code generation module for the System L, based on the proposed technique, are presented together with a new architecture of the system that supports an embedded interface of LOBAN in Pascal.
106

Extensão do padrão ODMG para suportar tempo e versões

Gelatti, Paôla Cristina January 2002 (has links)
Este trabalho apresenta uma extensão do padrão ODMG para o suporte ao versionamento de objetos e características temporais. Essa extensão, denominada TV_ODMG, é baseada no Modelo Temporal de Versões (TVM), que é um modelo de dados orientado a objetos desenvolvido para armazenar as versões do objeto e, para cada versão, o histórico dos valores dos atributos e dos relacionamentos dinâmicos. O TVM difere de outros modelos de dados temporais por apresentar duas diferentes ordens de tempo, ramificado para o objeto e linear para cada versão. O usuário pode também especificar, durante a modelagem, classes normais (sem tempo e versões), o que permite a integração desse modelo com outras modelagens existentes. Neste trabalho, os seguintes componentes da arquitetura do padrão ODMG foram estendidos: o Modelo de Objetos, a ODL (Object Definition Language) e a OQL (Object Query Language). Adicionalmente, foi desenvolvido um conjunto de regras para o mapeamento do TV_ODMG para o ODMG a fim de permitir o uso de qualquer ODBMS para suportar a extensão proposta.
107

Business Intelligence: comparação de ferramentas

Barreto, David Guaspari January 2003 (has links)
Cada vez mais o tempo acaba sendo o diferencial de uma empresa para outra. As empresas, para serem bem sucedidas, precisam da informação certa, no momento certo e para as pessoas certas. Os dados outrora considerados importantes para a sobrevivência das empresas hoje precisam estar em formato de informações para serem utilizados. Essa é a função das ferramentas de “Business Intelligence”, cuja finalidade é modelar os dados para obter informações, de forma que diferencie as ações das empresas e essas consigam ser mais promissoras que as demais. “Business Intelligence” é um processo de coleta, análise e distribuição de dados para melhorar a decisão de negócios, que leva a informação a um número bem maior de usuários dentro da corporação. Existem vários tipos de ferramentas que se propõe a essa finalidade. Esse trabalho tem como objetivo comparar ferramentas através do estudo das técnicas de modelagem dimensional, fundamentais nos projetos de estruturas informacionais, suporte a “Data Warehouses”, “Data Marts”, “Data Mining” e outros, bem como o mercado, suas vantagens e desvantagens e a arquitetura tecnológica utilizada por estes produtos. Assim sendo, foram selecionados os conjuntos de ferramentas de “Business Intelligence” das empresas Microsoft Corporation e Oracle Corporation, visto as suas magnitudes no mundo da informática.
108

Suporte a argumentos de consulta vagos através da linguagem XPath

Padilha, Alvaristo Bernardes do Amaral January 2005 (has links)
Abordagens clássicas de linguagens de consultas para bancos de dados possuem certas restrições ao serem usadas, diretamente, por aplicações que acessam dados cujo conteúdo não é completamente conhecido pelo usuário. Essas restrições geram um cenário onde argumentos de consultas, especificados com operadores boleanos, podem retornar resultados vazios. Desse modo, o usuário é forçado a refazer suas consultas até que os argumentos usados estejam idênticos aos dados armazenados no banco de dados. Em bases XML, este problema é reforçado pela heterogeneidade das formas em que a informação encontra-se armazenada em diferentes lugares. Como solução, uma alternativa seria o uso de funções de similaridade na substituição de operadores boleanos, a fim de que o usuário obtenha resultados aproximados para a consulta especificada. Neste trabalho é apresentada uma proposta para suporte a argumentos de consulta vagos através da extensão da linguagem XPath. Para isso, são utilizadas expressões XPath que utilizam novas funções, as quais são, diretamente, adicionadas ao processador da linguagem de consulta. Além disso, é apresentada uma breve descrição das métricas de similaridade utilizadas para a criação das funções. As funções que foram adicionadas a um processador XPath possuem uma ligação muito estreita com as métricas utilizadas. Como as métricas, as funções trabalham com valores simples (elementos atômicos) e compostos (elementos complexos). As funções que trabalham com elementos atômicos podem ser classificadas tanto pelo tipo de dado que será analisado, como pelo tipo de análise que será feita. As funções para elementos complexos comparam conjuntos de elementos atômicos de acordo com a forma do agrupamento (conjunto, lista ou tupla).
109

oLinDa: Uma Abordagem para Decomposição de Consultas em Federações de Dados Interligados

CUNHA, Danusa Ribeiro Bezerra da 21 February 2014 (has links)
Submitted by Lucelia Lucena (lucelia.lucena@ufpe.br) on 2015-03-06T19:07:13Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Danusa Ribeiro Bezerra da Cunha.pdf: 5211208 bytes, checksum: c051cd99928c224160a77aa04d2ef53b (MD5) / Made available in DSpace on 2015-03-06T19:07:13Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Danusa Ribeiro Bezerra da Cunha.pdf: 5211208 bytes, checksum: c051cd99928c224160a77aa04d2ef53b (MD5) Previous issue date: 2014-02-21 / CAPES / Um dos principais desafios a serem solucionados quando se deseja oferecer uma visão integrada de dados distribuídos em múltiplas fontes de dados diz respeito à decomposição de consultas. Em sistemas de integração de dados que fazem uso de um esquema de mediação, o problema de decomposição de consultas consiste em decompor uma consulta definida de acordo com o esquema de mediação em uma ou mais consultas a serem executadas nas fontes de dados locais. Um componente fundamental para a decomposição de consultas é o conjunto de mapeamentos entre o esquema de mediação e os esquemas das fontes de dados. Tendo em vista que os esquemas podem ser complexos e heterogêneos, um dos grandes problemas das soluções convencionais de integração de dados consiste em descobrir esses mapeamentos, pois este processo geralmente é feito de forma manual ou semiautomática, demandando um elevado custo durante a inicialização do sistema. Este trabalho aborda o problema de decomposição de consultas no contexto de integração de dados na Web de Dados, onde as fontes de dados seguem o modelo RDF (Resource Description Framework) e podem ser acessadas a partir de consultas SPARQL (SPARQL Protocol and RDF Query Language). Além disso, as fontes de dados podem estar associadas a uma ontologia que, em geral, desempenha o papel do esquema da fonte de dados. É importante destacar que, dada a natureza dinâmica e heterogênea do ambiente, não se deve esperar que uma estratégia de decomposição seja aplicada sobre toda a Web de Dados por questões de escalabilidade. Especificamente, neste trabalho propõe-se uma solução para o problema de decomposição de consultas em federações de conjuntos de dados interligados disponíveis na Web de Dados, ou seja, conjuntos de dados publicados de acordo com os princípios de Linked Data. Neste tipo de ambiente, se uma aplicação necessita consultar diferentes conjuntos de dados sem ter que formular uma nova consulta para cada um deles, pode ser necessário lidar com o problema de decomposição de consultas entre conjuntos de dados distintos e heterogêneos. Para solucionar tal problema, este trabalho propõe uma abordagem para decomposição de consultas em federações de dados interligados, a qual é dividida em três atividades principais. Dentre estas atividades, a principal contribuição reside na definição e implementação de um processo para decomposição de consultas, considerando que as fontes de dados possuem ontologias estruturalmente distintas que descrevem seus esquemas. Nesta abordagem, são manipuladas consultas SPARQL e são utilizados mapeamentos heterogêneos com o objetivo de tratar aspectos referentes às diferenças estruturais entre as ontologias. Para avaliar a abordagem proposta, um protótipo foi implementado e alguns experimentos foram realizados com fontes de dados que seguem os princípios Linked Data.
110

Geração mecanizada de abstrações seguras para especificações CSP

DAMASCENO, Adriana Carla 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:50:21Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Com a crescente demanda por diminuição de custos no desenvolvimento de software, há a necessidade de que os programas possam ser construídos de acordo com uma especificação concordante com os requisitos do cliente. Nesse sentido, a especificação formal pode ser utilizada para representar os requisitos do sistema. Uma vez que a especificação formal foi desenvolvida, ela pode ser usada como base para investigar determinadas propriedades através de um verificador de modelos. Ele aceita modelos e propriedades que o sistema final deve satisfazer. Então, a ferramenta gera uma resposta positiva se um dado modelo satisfaz uma dada especificação ou um contra-exemplo, em caso negativo. O contra-exemplo detalha a situação em que o modelo não foi satisfeito. Mas na maioria das vezes, problemas do mundo real não podem adotar essa abordagem porque usam domínios infinitos (levando ao problema da explosão de estados). Como forma de resolver essa questão, técnicas de abstração de dados são empregadas para gerar especificações abstratas finitas a partir de sistemas infinitos concretos. A linguagem de especificação usada nesse trabalho é CSP (Communicating Sequential Processes). Ela é uma linguagem formal que é usada para descrever padrões de interação em sistemas concorrentes. Uma das técnicas de abstração para especificações possíveis para essa linguagem é a abstração segura de dados. Essa abstração visa gerar um modelo abstrato a partir de um equivalente concreto que conserve as propriedades do sistema com respeito ao comportamento (modelo de traces) através da escolha de um dado do domínio abstrato para cada subconjunto do domínio concreto. O objetivo desse trabalho é propor um algoritmo para geração mecanizada de abstrações seguras para sistemas CSP seqüenciais com recursão simples. A especificação do algoritmo é apresentada usando o paradigma funcional e elementos da linguagem Z, com a introdução da estratégia através de exemplos. No estudo de caso, o software Mathematica é usado para instanciar os valores das variáveis e realizar a simplificação dos predicados construídos a partir desse algoritmo. Com esse trabalho, é possível gerar abstrações seguras de forma mecânica, e por conseqüência verificar o comportamento de modelos infinitos. Ademais, a geração de dados de testes automática também é beneficiada, já que com o domínio abstrato dos dados é possível percorrer todos os caminhos do sistema, gerando 100% de cobertura do modelo. Esse esforço é justificado pela importância que a fase de testes tem para a qualidade do software. Estudos prévios mostraram que essa fase demanda mais de 50% do custo de seu desenvolvimento, e uma pesquisa detalhada realizada nos Estados Unidos quantifica os altos impactos econômicos de uma infra-estrutura de software

Page generated in 0.0574 seconds