• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Uma arquitetura baseada em geração de predicados para obtenção de regras de associação espacial

Silva, Wesley Vaz 17 March 2003 (has links)
Orientador: Geovane Cayres Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T17:15:06Z (GMT). No. of bitstreams: 1 Silva_WesleyVaz_M.pdf: 4611839 bytes, checksum: 4df39efd2adbc24762a533582a141e5f (MD5) Previous issue date: 2003 / Resumo: Essa dissertação propõe e desenvolve modelos e técnicas para a obtenção de regras de associação espacial. Isto se baseia em um processo de duas fases. Na primeira, o banco de dados geográfico é pré-processado usando urna base de conhecimento especificada por um usuário especialista para indicar os relacionamentos de interesse. Isso produz um arquivo onde os dados estão organizados em termos de predicados espaciais e convencionais. Este arquivo pode ser processado por algoritmos padrões de mineração de dados. Isso simplifica o processo de derivação de regras espaciais para um problema clássico de aplicação de algoritmos de mineração de regras de associação tradicionais. O primeiro passo usa dois modelos propostos. O primeiro é o Modelo de Derivação Relacional, cuja meta é identificar predicados convencionais baseada na análise dos atributos descritivos. O segundo é o Modelo de Derivação Espacial, responsável por checar relacionamentos espaciais entre objetos e gerar predicados espaciais, para serem usados para derivar regras de associação espacial. Um algoritmo de denormalização combina os predicados espaciais e convencionais em um simples arquivo, usado para minerar regras de associação. As principais contribuições deste trabalho são: (i) a especificação e validação de um modelo para derivar predicados espaciais, (ii) criação de uma arquitetura que permite obter regras de associação espacial usando algoritmos de mineração de dados relacional padrão, (iii) o uso de uma base de conhecimento para obter predicados que são relevantes ao usuário e (iv) implementação de um protótipo / Abstract: This thesis proposes and develops models and techniques for the obtention of spatial association rules. This is based on a two-step process. In the first stage, the geographic database is preprocessed using a knowledge base specified by an expert user to indicate the relationships of interest. This produces a file where data are organized in terms of conventional and spatial predicates. This file can next be processed by standard data mining algorithms. This simplifies the process of deriving spatial rules to a classical problem of applying traditional association rule mining algorithms. The first step uses two proposed models. The first is the Model of Relational Derivation, whose goa1 is to identify conventional predicates based on the ana1ysis of descriptive attributes. The second is the Model of Spatial Derivation, responsib1e for checking spatia1 re1ationships among objects and generating spatia1 predicates, to be subsequent1y used to derive spatia1 association rules. A subsequent denormalization a1gorithm combines conventional and spatial predicates into a single file, used to mine association ru1es. The main contributions of this work are: (i) the specification and validation of a model to derive spatia1 predicates, (ii) the creation of an architecture that allows obtaining spatial association rules using standard relational mining algorithms (iii) the use of a knowledge base to obtain predicates which are relevant to the user and (iv) the imp1ementation of a prototype / Mestrado / Mestre em Ciência da Computação
362

Estrategia para testes de componentes de banco de dados orientados a objetos utlizando injeção de falhas / Strategy for Object Oriented Database Test using Software Fault Injection

Moraes, Regina Lúcia de Oliveira, 1956- 13 June 2006 (has links)
Orientador: Eliane Martins / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T17:14:10Z (GMT). No. of bitstreams: 1 Moraes_ReginaLuciadeOliveira_M.pdf: 4967763 bytes, checksum: 7156a7a1a1801995591c7016b750cc40 (MD5) Previous issue date: 2003 / Resumo: A maioria dos software desenvolvidos atualmente, incluindo sistemas críticos, utiliza em algum momento software desenvolvido por terceiros ou do inglês, third-parties components. Em especial, quase a totalidade dos sistemas desenvolvidos utiliza um gerenciador de base de dados que é adquirido de empresas especializadas nesse segmento. Como a segurança que se espera do funcionamento desses componentes é importante, a injeção de falhas por software é uma ferramenta útil na sua validação, tendo se mostrado uma das formas mais eficientes para isso. Nesse processo são introduzidas falhas, e observada a resposta do sistema quando em presença das falhas injetadas. Para que se possa utilizar essa técnica, é necessário que se tenha à mão uma ferramenta que nos permita injetar as falhas e monitorar o sistema sob teste para que possamos acompanhar o seu comportamento. Para a credibilidade desses testes, é interessante que se tenha uma estratégia que se possa seguir, objetivando a escolha de alguns requisitos necessários para a injeção: as falhas a injetar, onde injeta-las, a maneira de ativa-las, como coletar os resultados e determinar o sucesso ou insucesso do componente ao tentar resolver da maneira esperada o erro causado pela injeção. Para nossos experimentos, escolhemos como componente terceirizado um gerenciador de banco de dados orientado a objetos, o Ozone. Como aplicação, utilizada para ativar as falhas injetadas, utilizamos um benchmark desenvolvido para testes de desempenho desse tipo de componente, o Wisconsin 007. A Jaca, desenvolvida em trabalho anterior de mestrado do Instituto de Computação, foi a ferramenta escolhida para viabilizar os testes por injeção de falhas, permitindo injetar falhas por software. Uma das contribuições desse trabalho foi, a proposta de uma estratégia para a validação de componentes 00. Outra contribuição foram os testes da ferramenta de injeção, bem como, o aparte de correções e melhorias à mesma / Abstract: The majority of software currently developed - including critical systems - utilize third-party components. Further, a1most all systems use Database Management Systems that are acquired from firms that specialize in this sector. Given the security expected from these components, software fault injection is a useful and efficient validation too1. The process comprises the introduction of faults and observation of system replies when in presence of injected faults. To use this technique it is necessary to have a tool that allows for the injection of faults and the monitoring of the system under test in order to accompany its behavior. To achieve credibility these tests need a strategy that permits the choice of some necessary requirements for the injection. Among these requirements are what faults to inject, where to inject them, how to activate them, how to collect results and how to determine the component's success or failure when trying to solve the problem caused by the injections through the expected manner. For the experiments conducted, Ozone - an object-oriented database management system - was chosen as the third-party component. We have used Wisconsin 007, a benchmark developed for performance tests on these types of components, as the application to activate the injected faults. Jaca, that was developed previously at the Institute of Computing, was the chosen tool to make feasible the injection tests. 1t allowed for software fault injection. One contribution of this work is the proposed validation strategy for 00 components. The other contribution is the injection tool' s tests, its corrections and improvements proposed. / Mestrado / Mestre em Ciência da Computação
363

A abordagem POESIA para a integração de dados e serviços na Web semantica

Fileto, Renato 12 January 2003 (has links)
Orientador: Claudia Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T19:58:07Z (GMT). No. of bitstreams: 1 Fileto_Renato_D.pdf: 5888725 bytes, checksum: 998839af140b2e39d54ce60eeba063d8 (MD5) Previous issue date: 2003 / Resumo: POESIA (Processes for Open-Ended Systems for lnformation Analysis), a abordagem proposta neste trabalho, visa a construção de processos complexos envolvendo integração e análise de dados de diversas fontes, particularmente em aplicações científicas. A abordagem é centrada em dois tipos de mecanismos da Web semântica: workflows científicos, para especificar e compor serviços Web; e ontologias de domínio, para viabilizar a interoperabilidade e o gerenciamento semânticos dos dados e processos. As principais contribuições desta tese são: (i) um arcabouço teórico para a descrição, localização e composição de dados e serviços na Web, com regras para verificar a consistência semântica de composições desses recursos; (ii) métodos baseados em ontologias de domínio para auxiliar a integração de dados e estimar a proveniência de dados em processos cooperativos na Web; (iii) implementação e validação parcial das propostas, em urna aplicação real no domínio de planejamento agrícola, analisando os benefícios e as limitações de eficiência e escalabilidade da tecnologia atual da Web semântica, face a grandes volumes de dados / Abstract: POESIA (Processes for Open-Ended Systems for Information Analysis), the approach proposed in this work, supports the construction of complex processes that involve the integration and analysis of data from several sources, particularly in scientific applications. This approach is centered in two types of semantic Web mechanisms: scientific workflows, to specify and compose Web services; and domain ontologies, to enable semantic interoperability and management of data and processes. The main contributions of this thesis are: (i) a theoretical framework to describe, discover and compose data and services on the Web, inc1uding mIes to check the semantic consistency of resource compositions; (ii) ontology-based methods to help data integration and estimate data provenance in cooperative processes on the Web; (iii) partial implementation and validation of the proposal, in a real application for the domain of agricultural planning, analyzing the benefits and scalability problems of the current semantic Web technology, when faced with large volumes of data / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
364

Analise de desempenho de metodos de acesso espaciais baseada em um banco de dados real

Carneiro, Alexandre Pedrosa 25 July 2018 (has links)
Orientador: Geovane Cayres Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-25T14:34:23Z (GMT). No. of bitstreams: 1 Carneiro_AlexandrePedrosa_M.pdf: 3246444 bytes, checksum: ad2d0c89291cd83b4494c0f03936fef5 (MD5) Previous issue date: 1998 / Resumo: Esta dissertação apresenta uma análise comparativa de desempenho de métodos de acesso espaciais a partir de um banco de dados real. Embora haja um grande número de pesquisas envolvendo a comparação de desempenho de métodos de acesso espaciais, pouco até hoje se fez para que essas avaliações levem em conta as características de grupos específicos de aplicações, o que em parte se deve à dificuldade de se obter conjuntos de dados reais que as representem. A utilização de dados reais é necessária, uma vez que a geração de dados sintéticos pode resultar em conjuntos de dados com características atípicas, levando a conclusões não necessariamente extensíveis a determinado tipo de aplicação. Neste contexto, as principais contribuições deste trabalho são: A conversão de um conjunto de dados reais representativos para aplicações de gerenciamento de serviços de utilidade pública, tais como telefonia, eletricidade e água, para um formato em que ele pode ser facilmente repassado a outros pesquisadores; A avaliação do desempenho de um grupo de métodos de acesso espaciais pertencentes à família da R-tree na indexação desse cónjunto de dados. Alguns dos resultados dos experimentos divergiram de outros obtidos por um grupo de pesquisadores a partir de dados sintéticos, reforçando a necessidade do uso de dados reais representativos na comparação de desempenho de métodos de acesso espaciais. Esta dissertação traz ainda um levantamento das diversas técnicas utilizadas na indexação de dados espaciais. / Abstract: This dissertation presents a comparative performance analysis of spatial access methods based on a real-life database. In spite of the large amount of research dealing with the performance comparison of spatial access methods, very little has been done when it comes to considering the properties of specific groups of applications. In part, this is due to the difficulty in obtaining real data sets to represent them. The use of real data is necessary, since synthetic data generation may result in data sets with atypical characteristics, which may lead, in turn, to conclusions that don't apply to a given application type. In this context, the main contributions of this work are: The conversion of a real data set that is representative of geographic applications for public utility services management to a format in which it may be easily delivered to other researchers. Public utility services include telecommunication, electricity and water supply, and the like. The performance comparison of a group of spatial access methods of the R-tree family with regards to the indexing of this data set. The accomplished experiments have shown some results that disagree with other ones obtained by a group of researchers who have based on synthetic data sets, reinforcing the need of using representative real data sets. This dissertation also presents a survey of several techniques used in spatial data indexing. / Mestrado / Mestre em Ciência da Computação
365

Desenvolvimento do FrameDose: uma plataforma computacional para organização de informações técnicas relacionadas com modelos computacionais de exposição

Resende Filho, Tennyson Accetti 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T23:15:44Z (GMT). No. of bitstreams: 2 arquivo8467_1.pdf: 3087609 bytes, checksum: a05c3722ae5b084578c4d8aa0c5b10ce (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O Trabalho desenvolveu uma plataforma computacional visando disponibilizar grupo GDN/CNPq e à comunidade científica interessada, informações técnicas sobre modelos computacionais de exposição desenvolvidos pelo grupo desde 2004. Trata-se de um software que integra e disponibiliza ferramentas úteis em avaliações dosimétricas já consagradas meio acadêmico, documentos técnicos e modelos computacionais de exposição desenvolvidos pelo grupo. O framework aqui desenvolvido foi construído utilizando um ambiente visual Studio.net, e também dá suporte ao desenvolvimento de aplicações seguindo o padrão projeto Façade, permitindo agregar outros sistemas desenvolvidos, mas também tornou- uma solução multi banco de dados através do padrão Factory Method. O presente trabalho detalhes da construção da plataforma de software e conclui utilizando o FrameDose para executar, passo a passo, um dos MCEs disponíveis no banco de dados. O trabalho desenvolvido cria um ambiente orientado a objetos que permite ao usuário, com um simples clique do mouse, ativar processos diferentes, executar aplicativos em linha de comando, executar aplicativos de suporte, disponibilizar, livremente, textos e imagens já produzidos pelo GDN/CNPq úteis para estudos sobre MCEs. Isto constitui uma ferramenta inestimável para qualquer estudante ou pesquisador em dosimetria numérica das radiações ionizantes
366

Uma abordagem para detecção de outliers em dados categoricos

Silva, Flávio Roberto 27 February 2004 (has links)
Orientador: Geovane Cayres Magalhães / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-04T02:10:07Z (GMT). No. of bitstreams: 1 Silva_FlavioRoberto_M.pdf: 2674028 bytes, checksum: 456319a74b85e74d16832bff92d67eed (MD5) Previous issue date: 2004 / Resumo: Outliers são elementos que não obedecem a um padrão do conjunto de dados ao qual eles pertencem. A detecção de outliers pode trazer informações não esperadas e importantes para algumas aplicações, como por exemplo: descoberta de fraudes em sistemas telefônicos e de cartão de crédito e sistemas de detecção de intrusão. Esta dissertação apresenta uma nova abordagem para detecção de outliers em bancos de dados com atributos categóricos. A abordagem proposta usa modelos log-lineares como um padrão para o conjunto de dados, o que torna mais fácil a tarefa de interpretação dos resultados pelo usuário. Também é apresentado o FOCaD (Finding Outliers in Categorical Data), protótipo de um sistema de análise de dados categóricos. Ele ajusta e seleciona modelos, faz testes estatísticos e detecta outliers / Abstract: An outlier is an element that does not conform to a given pattern to a set. Outlier detection can lead to unexpected and useful information to some applications, e.g., discovery of fraud in telephonic and credit card systems, intrusion detection systems. This Master Thesis presents a new approach for outlier detection in databases with categorical attributes. The proposed approach uses log-linear models as a pattern for the dataset, which makes easier the task of interpreting results by the user'. It is also presented FOCaD (Finding Outliers in Categorical Data), a prototype of a categorical data analysis system. It adjusts and selects models, performs statistic tests, and outlier detection / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
367

Proposta de compartilhamento em sistemas colaborativos de gerencia de documentos para arquitetura, engenharia e construção

Andrade Junior, Edivaldo Pereira de 24 February 2003 (has links)
Orientador : Regina Coeli Ruschel / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil / Made available in DSpace on 2018-08-03T14:45:58Z (GMT). No. of bitstreams: 1 AndradeJunior_EdivaldoPereirade_M.pdf: 5221845 bytes, checksum: 18f429e299c198ff51e0941fec16ea01 (MD5) Previous issue date: 2003 / Resumo: Colaboração não é novidade nas engenharias e na arquitetura, a novidade está na implementação desta colaboração buscando-se mais produtividade e eficiência associada ao uso de novas tecnologias. Têm-se desenvolvido pesquisas buscando-se introduzir princípios das Engenharias Simultânea e Colaborativa na indústria da construção. Como resultado surgiram nos últimos anos na Internet Sistemas Colaborativos de Gerência de Documentos (Document Managment Systems - DMS) para apoio ao trabalho colaborativo na Arquitetura, Engenharia e Construção (AEC) baseados em ferramentas computacionais remotas centradas em dados e centradas em pessoas. Surge então a primeira barreira quando um escritório de AEC se propõe imergir neste contexto: o desconhecimento do modelo existente do colaboração utilizado e como transportá-Io para um ambiente que apoia equipes virtuais colaborativas. Este trabalho pretende abordar esta questão. Propõe-se uma metodologia para a identificação das relações entre pessoas-dados-acessos no processo de projeto de AEC para que este possa ser bem caracterizado/implementado/gerenciado dentro de um ambiente colaborativo na Internet. Para tal efetuou-se um estudo de caso que incluiu quatro etapas: (1) coleta de dados (em termos de elementos de projeto utilizados, membros de equipe e acesso aos elementos), (2) definição de um modelo genérico de compartilhamento de dados em AEC e sua implementação numa base de dados relacional, (3) inserção dos dados coletados na base os dados para a extração do modelo existente de colaboração e (4) proposta de alternativas de organização de diretórios a serem implementadas num ambiente colaborativo, que reflita o modelo de colaboração pessoa-dados-acessos observado. A metodologia proposta demonstrou ser eficiente para a extração do modelo existente de colaboração de um escritório de AEC. Constatou-se que o ambiente estudado incorpora características da Engenharia Tradicional, Simultânea e Colaborativa levantadas na bibliografia e portanto, está organizado de tal forma que com o modelo existente de colaboração detectado e implementado num DMS Colaborativo, este usufruirá de ganhos em produção e precisão / Mestrado / Edificações / Mestre em Engenharia Civil
368

Tratamento de condições especiais para busca por similaridade em bancos de dados complexos / Treatment of special conditional for similarity searching in complex data bases

Daniel dos Santos Kaster 23 April 2012 (has links)
A quantidade de dados complexos (imagens, vídeos, séries temporais e outros) tem crescido rapidamente. Dados complexos são adequados para serem recuperados por similaridade, o que significa definir consultas de acordo com um dado critério de similaridade. Além disso, dados complexos usualmente são associados com outras informações, geralmente de tipos de dados convencionais, que devem ser utilizadas em conjunto com operações por similaridade para responder a consultas complexas. Vários trabalhos propuseram técnicas para busca por similaridade, entretanto, a maioria das abordagens não foi concebida para ser integrada com um SGBD, tratando consultas por similaridade como operações isoladas, disassociadas do processador de consultas. O objetivo principal desta tese é propor alternativas algébricas, estruturas de dados e algoritmos para permitir um uso abrangente de consultas por similaridade associadas às demais operações de busca disponibilizadas pelos SGBDs relacionais e executar essas consultas compostas eficientemente. Para alcançar este objetivo, este trabalho apresenta duas contribuições principais. A primeira contribuição é a proposta de uma nova operação por similaridade, chamada consulta aos k-vizinhos mais próximos estendida com condições (ck-NNq), que estende a consulta aos k-vizinhos mais próximos (k-\'NN SUB. q\') de maneira a fornecer uma condição adicional, modificando a semântica da operação. A operação proposta permite representar consultas demandadas por várias aplicações, que não eram capazes de ser representadas anteriormente, e permite homogeneamente integrar condições de filtragem complementares à k-\'NN IND.q\'. A segunda contribuição é o desenvolvimento do FMI-SiR (user-defined Features, Metrics and Indexes for Similarity Retrieval ), que é um módulo de banco de dados que permite executar consultas por similaridade integradas às demais operações do SGBD. O módulo permite incluir métodos de extração de características e funções de distância definidos pelo usuário no núcleo do gerenciador de banco de dados, fornecendo grande exibilidade, e também possui um tratamento especial para imagens médicas. Além disso, foi verificado através de experimentos sobre bancos de dados reais que a implementação do FMI-SiR sobre o SGBD Oracle é capaz de consultar eficientemente grandes bancos de dados complexos / The amount of complex data (images, videos, time series and others) has been growing at a very fast pace. Complex data are well-suited to be searched by similarity, which means to define queries according to a given similarity criterion. Moreover, complex data are usually associated with other information, usually of conventional data types, which must be employed in conjunction with similarity operations to answer complex queries. Several works proposed techniques for similarity searching, however, the majority of the approaches was not conceived to be integrated into a DBMS, treating similarity queries as isolated operations detached from the query processor. The main objective of this thesis is to propose algebraic alternatives, data structures and algorithms to allow a wide use of similarity queries associated to the search operations provided by the relational DBMSs and to execute such composite queries eficiently. To reach this goal, this work presents two main contributions. The first contribution is the proposal of a new similarity operation, called condition-extended k-Nearest Neighbor query (ck-\'NN IND. q\'), that extends the k-Nearest Neighbor query (k-\'NN IND. q\') to provide an additional conditio modifying the operation semantics. The proposed operation allows representing queries required by several applications, which were not able to be represented before, and allows to homogeneously integrate complementary filtering conditions to the k-\'NN IND. q\'. The second contribution is the development of the FMI-SiR(user-defined Features, Metrics and Indexes for Similarity Retrieval), which is a database module that allows executing similarity queries integrated to the DBMS operations. The module allows including user-defined feature extraction methods and distance functions into the database core, providing great exibility, and also has a special treatment for medical images. Moreover, it was verified through experiments over real datasets that the implementation of FMI-SiR over the Oracle DBMS is able to eficiently search very large complex databases
369

Um novo processo para refatoração de bancos de dados. / A new process to database refactoring.

Domingues, Márcia Beatriz Pereira 15 May 2014 (has links)
O projeto e manutenção de bancos de dados é um importante desafio, tendo em vista as frequentes mudanças de requisitos solicitados pelos usuários. Para acompanhar essas mudanças o esquema do banco de dados deve passar por alterações estruturais que muitas vezes prejudicam o desempenho e o projeto das consultas, tais como: relacionamentos desnecessários, chaves primárias ou estrangeiras criadas fortemente acopladas ao domínio, atributos obsoletos e tipos de atributos inadequados. A literatura sobre Métodos Ágeis para desenvolvimento de software propõe o uso de refatorações para evolução do esquema do banco de dados quando há mudanças de requisitos. Uma refatoração é uma alteração simples que melhora o design, mas não altera a semântica do modelo de dados, nem adiciona novas funcionalidades. Esta Tese apresenta um novo processo para aplicar refatorações ao esquema do banco de dados. Este processo é definido por um conjunto de tarefas com o objetivo de executar as refatorações de uma forma controlada e segura, permitindo saber o impacto no desempenho do banco de dados para cada refatoração executada. A notação BPMN foi utilizada para representar e executar as tarefas do processo. Como estudo de caso foi utilizado um banco de dados relacional, o qual é usado por um sistema de informação para agricultura de precisão. Esse sistema, baseado na Web, necessita fazer grandes consultas para plotagem de gráficos com informações georreferenciadas. / The development and maintenance of a database is an important challenge, due to frequent changes and requirements from users. To follow these changes, the database schema suffers structural modifications that, many times, negatively affect its performance and the result of the queries, such as: unnecessary relationships, primary and foreign keys, created strongly attached to the domain, with obsolete attributes or inadequate types of attributes. The literature about Agile Methods for software development suggests the use of refactoring for the evolution of database schemas when there are requirement changes. A refactoring is a simple change that improves the design, but it does not alter the semantics of the data model neither adds new functionalities. This thesis aims at proposing a new process to apply many refactoring to the database schema. This process is defined by a set of refactoring tasks, which is executed in a controlled, secure and automatized form, aiming at improving the design of the schema and allowing the DBA to know exactly the impact on the performance of the database for each refactoring performed. A notation BPMN has been used to represent and execute the tasks of the workflow. As a case study, a relational database, which is used by an information system for precision agriculture was used. This system is web based, and needs to perform large consultations to transfer graphics with geo-referential information.
370

Managing large-scale scientific hypotheses as uncertain and probabilistic data / Gerência de hipóteses científicas de larga-escala como dados incertos e probabilísticos

Gonçalves, Bernardo Nunes 28 January 2015 (has links)
Submitted by Maria Cristina (library@lncc.br) on 2015-04-02T17:47:07Z No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) / Approved for entry into archive by Maria Cristina (library@lncc.br) on 2015-04-02T17:47:51Z (GMT) No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) / Made available in DSpace on 2015-04-02T17:48:29Z (GMT). No. of bitstreams: 1 bernardo-thesis.pdf: 1669339 bytes, checksum: fbd578e31ff13004edbe4fe1eec0ef5f (MD5) Previous issue date: 2015-01-28 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Fundação Carlos Chagas Filho de Amparo à Pesquisa do estado do Rio de Janeiro / Tendo em vista a mudança de paradigma que faz da ciência cada vez mais guiada por dados, nesta tese propomos um método para codifica e gerência de hipóteses científicas determinísticas de larga escala como dados incertos e probabilísticos. Na forma de equações matemáticas, hipóteses relacionam simetricamente aspectos do fenômeno de estudo. Para computação de predições, no entanto, hipóteses determinísticas podem ser abstraídas como funções. Levamos adiante a no de Simon de equações estruturais para extrair de forma eficiente a então chamada ordenação causal implícita na estrutura de uma hipótese. Mostramos como processar a estrutura preditiva de uma hipótese através de algoritmos originais para sua codifica ‹o como um conjunto de dependências funcionais (df's) e então realizamos inferência causal em termos de raciocínio acíclico pseudo-transitivo sobre df's. Tal raciocínio revela importantes dependências causais implícitas nos dados preditivos da hipótese, que conduzem nossa síntese do banco de dados probabilístico. Como na área de modelos gráficos (IA), o banco de dados probabilístico deve ser normalizado de tal forma que a incerteza oriunda de hipóteses alternativas seja decomposta em fatores e propagada propriamente recuperando sua distribuição de probabilidade conjunta via junção 'lossless.' Isso é motivado como um princípio teórico de projeto para gerência e análise de hip teses. O método proposto é aplicável a hipóteses determinísticas quantitativas e qualitativas e é demonstrado em casos realísticos de ciência computacional. / In view of the paradigm shift that makes science ever more data-driven, in this thesis we propose a synthesis method for encoding and managing large-scale deterministic scientific hypotheses as uncertain and probabilistic data. In the form of mathematical equations, hypotheses symmetrically relate aspects of the studied phenomena. For computing predictions, however, deterministic hypotheses can be abstracted as functions. We build upon Simon's notion of structural equations in order to efficiently extract the (so-called) causal ordering between variables, implicit in a hypothesis structure (set of mathematical equations). We show how to process the hypothesis predictive structure effectively through original algorithms for encoding it into a set of functional dependencies (fd's) and then performing causal reasoning in terms of acyclic pseudo-transitive reasoning over fd's. Such reasoning reveals important causal dependencies implicit in the hypothesis predictive data and guide our synthesis of a probabilistic database. Like in the field of graphical models in AI, such a probabilistic database should be normalized so that the uncertainty arisen from competing hypotheses is decomposed into factors and propagated properly onto predictive data by recovering its joint probability distribution through a lossless join. That is motivated as a design-theoretic principle for data-driven hypothesis management and predictive analytics. The method is applicable to both quantitative and qualitative deterministic hypotheses and demonstrated in realistic use cases from computational science.

Page generated in 0.3831 seconds