• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Gerenciamento do processo de calibração secundária de acelerômetros por meio de uma aplicação de banco de dados /

Juliani, Fernando. January 2012 (has links)
Orientador: Mauro Hugo Mathias / Coorientador: Everaldo de Barros / Banca: José Elias Tomazini / Banca: Carlos D'Andrade Souto / Resumo: A vibração é um dos fenômenos que deve ser controlado quando atinente à componentes aeroespaciais. Sua ocorrência, em geral, não é benéfica para a vida útil de um sistema mecânico desse tipo e, por isso, este deve ser submetido a inúmeros testes de vibração para que informações sobre seu comportamento em operação sejam conhecidas. Sendo o acelerômetro o principal componente do sistema de medição empregado nos testes de vibração em sistemas mecânicos, é fundamental que sua calibração seja realizada periodicamente de forma a garantir suas condições operacionais. O processo de calibração secundária de acelerômetros especificamente envolve informações determinantes para a obtenção de resultados confiáveis e análise correta do comportamento de uma estrutura submetida a um ambiente vibratório. O valor de sensibilidade para uma frequência fixa de calibração é um exemplo de informação relevante que deve ser gerenciada. O Laboratório Central de Calibração de Acelerômetros do Comando da Aeronáutica é responsável pelo controle de um elevado número desses transdutores e, portanto, deve gerenciar dados de sua calibração e utilização. No entanto, deficiências foram detectadas no modo de controle vigente. Esta pesquisa propõe uma sistemática auxiliada por sistema proprietário de banco de dados para o gerenciamento laboratorial de dados de calibração de acelerômetros utilizados em testes e monitoramentos de vibração mecânica atendendo a itens da norma NBR ISO/IEC 17025 (2005) / Abstract:Vibration is one of the phenomena that must be controlled regarding aerospace components. In general, its occurrence is not beneficial to the life cycle of such a mechanical system, and therefore it must be subjected to numerous vibration tests so that information about its behavior in operation is known. Since the accelerometer is the main component of the measuring system employed in mechanical vibration tests, it is essential that its calibration is performed periodically to ensure its operational conditions. The accelerometer secondary calibration process specifically involves critical information to obtain reliable results and correct analysis of the behavior of a structure subjected to a vibration environment. The sensitivity value for a fixed frequency calibration is an example of relevant information that must be managed. The Brazilian Air Force Command Central Laboratory of Accelerometer Calibration is responsible for managing a large number of transducers and therefore must manage data from their calibration and use. However, deficiencies were detected in the current control system. This research proposes a systematic approach aided by a proprietary database to manage the laboratory calibration data of accelerometers used in testing and monitoring of mechanical vibration according to NBR ISO/IEC 17025 (2005) item. / Mestre
92

Política de armazenamento de dados em nuvens federadas para dados biológicos

Gallon, Ricardo Fernandes 07 July 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-11-20T16:39:03Z No. of bitstreams: 1 2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-11-24T15:14:24Z (GMT) No. of bitstreams: 1 2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / Made available in DSpace on 2014-11-24T15:14:24Z (GMT). No. of bitstreams: 1 2014_RicardoFernandesGallon.pdf: 1641798 bytes, checksum: 0acfed544c445d0bab511a4a677e857c (MD5) / A computação em nuvem tem possibilitado a integração de diversos provedores para a execução de tarefas de forma mais rápida em comparação a utilização dos modelos anteriores,e uma visão ao usuário de que os recursos de armazenamento e processamento são ilimitados. A Bioinformática, que lida com grande volume de informações, pode utilizar-se da infraestrutura de computação em nuvem para disponibilizar suas ferramentas,para serem utilizadas nos fluxos de trabalhos, chamados workflows. Além disso, as instituições podem associar-se a outras instituições para formar uma federação de nuvens computacionais, proporcionando maior flexibilidade na escolha de provedores de serviço.Neste contexto, o desempenho da execução de workflows de Bioinformática é fortemente afetado pelo armazenamento e recuperação de dados, devido ao grande volume de informações das sequências genômicas. Desta forma, a escolha da melhor nuvem para estas operações é fundamental para a eficiência da execução do workflow. O presente trabalho tem por objetivo propor uma política de armazenamento de dados genômicos para nuvens computacionais federadas buscando, através da definição de alguns critérios de seleção e estratégias, diminuir o tempo de transferência dos dados e assim contribuir para a diminuição do tempo total de execução do workflow. Foi realizado um estudo de caso, com dados reais, utilizando a plataforma BioNimbuZ[1], que é uma arquitetura para execução de workflows de bioinformática no ambiente de nuvens federadas. Com os resultados obtidos, foi possível determinar o peso de cada critério da política de armazenamento e realizar as análises em relação a política originalmente criada para a arquitetura. Desta forma, a política de armazenamento proposta apresentou ganhos quanto a eficiência, principalmente em nuvens com grande poder computacional. ________________________________________________________________________________ ABSTRACT / Cloud computing has enabled the integration of providers to perform tasks faster, and has allowed users to view the processing and storage resources as unlimited. Bio informatics, which handles large volume of information produced by high-throughput sequencing machines, may use the infrastructure of cloud computing to provide tools to be used in workflows. In addition, institutions may join other institutions to form a federation of computing clouds, providing greater flexibility in the choice of service providers. In this context, the performance of the implementation of a workflow is strongly affected by the storage and retrieval of data, due to the large amount of information from genomic sequences. Thus, choosing the best cloud for these operations is critical to the efficiency of the workflow. This work aims to propose a policy for the storage of genomic data for federated cloud computing seeking, by defining some selection criteria and strategies, toreduce the time of data transfer and thus contribute to the reduction of total execution time of the workflow. A case study was carried out with real data, using BioNimbuZ platform, which is an architecture for the implementation of bioinformatics workflows infederated cloud environments. With the results obtained, it was possible to determine the weight of each storage policy criteria and perform the analysis regarding the policy originally created for the architecture. Thus, the storage policy proposal presented efficiency gains, especially in clouds with great computing power.
93

Apresentação de documentos XML através de exemplos

Borges, Raquel Trindade January 2002 (has links)
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
94

Distribuição dos Dados em Ambientes de Data Warehousing: O Sistema WebD2W e Algoritmos Voltados à Fragmentação Horizontal dos Dados

Dutra de Aguiar Ciferri, Cristina January 2002 (has links)
Made available in DSpace on 2014-06-12T15:53:14Z (GMT). No. of bitstreams: 2 arquivo4991_1.pdf: 2744435 bytes, checksum: 055f27cf65aa503e1d4767c0bd306cbc (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2002 / Um ambiente de data warehousing consolida dados de interesse de provedores de informação autônomos, distribuídos e heterogêneos em uma única base de dados, chamada de data warehouse. Esse ambiente garante eficiência e flexibilidade na recuperação de informações estratégicas voltadas aos processos de gerência e tomada de decisão, e mantém os dados integrados no data warehouse com alta qualidade e confiabilidade. Os dados extraídos de cada provedor de informação são traduzidos, filtrados quando necessário e integrados com informações relevantes de outros provedores antes de serem armazenados no data warehouse. Este processo de carregamento dos dados é realizado de forma que consultas OLAP (on-line analytical processing) possam ser respondidas diretamente a partir do data warehouse, sem a necessidade de acesso aos provedores de informação originais. Em geral, o data warehouse representa uma única base de dados centralizada. Distribuir os dados armazenados nessa base de dados levando-se em consideração as características intrínsecas de aplicações de data warehousing e as necessidades dos usuários de sistemas de suporte a decisão apresenta várias vantagens, porém introduz novos desafios a ambientes de data warehousing. Dentro deste contexto, esta tese tem por objetivo propor o sistema WebD2W, enfocando um dos seus principais objetivos: a distribuição dos dados do data warehouse. O sistema WebD2W (Web Distributed Data Warehousing) é um ambiente de data warehousing distribuído clienteservidor que visa não somente a distribuição dos dados do data warehouse, mas também o acesso distribuído a esses dados usando a tecnologia Web como infra-estrutura. As suas metas genéricas consistem em: aumentar a disponibilidade dos dados do data warehouse, aumentar a disponibilidade de acesso a esses dados, manter a consistência dos dados distribuídos, proporcionar aumento no desempenho do processamento de consultas submetidas ao ambiente de data warehousing, garantir as transparências de fragmentação, de replicação e de localização na manipulação dos dados, e oferecer suporte a um grande número de usuários. Além de apresentar a arquitetura do sistema WebD2W, esta tese também propõe um conjunto de algoritmos voltados à fragmentação horizontal dos dados do data warehouse: algoritmo FHU D, algoritmo FHU DHA, algoritmo FHM D, algoritmo FHM DHA e algoritmo FH MN. Esses algoritmos são baseados nos conceitos de grafo de derivação, de propagação das dimensões sendo fragmentadas aos vértices do grafo e de fragmentação ou reconstrução de agregações. Os algoritmos propostos constituem a fundamentação para o sistema WebD2W. Os diferenciais dos algoritmos propostos nesta tese referem-se ao fato de que esses algoritmos: (i) levam em consideração a organização dos dados do data warehouse em diferentes níveis de agregação; (ii) podem ser aplicados a diferentes cenários, de acordo com as características do grafo de derivação que representa a aplicação de data warehousing sendo fragmentada e com a dimensionalidade do processo de fragmentação; (iii) priorizam a execução de consultas drill-down e roll-up nos sites individuais, além de enfocarem consultas slice and dice; (iv) independem da forma de armazenamento dos dados multidimensionais em estruturas de dados relacionais (isto é, sistemas ROLAP) ou em estruturas de dados especializadas (ou seja, vi sistemas MOLAP); (v) podem ser aplicados tanto em situações nas quais todas as agregações que podem ser geradas a partir dos dados detalhados são armazenadas no data warehouse quanto em situações nas quais nem todas essas agregações são materializadas no data warehouse; e (vi) oferecem um tratamento simétrico das dimensões e das medidas numéricas. Por fim, o sistema WebD2W foi contextualizado por meio de uma aplicação de data warehousing real voltada à análise de diagnósticos de saúde no Município de Belo Horizonte. Essa aplicação foi investigada em termos da importância da distribuição dos seus dados e do uso da Web como infra-estrutura de acesso. Em particular, um subconjunto dos dados da referida aplicação foi fragmentado horizontalmente pelo algoritmo FHU D
95

MODAS : um sistema adaptativo para banco de dados de objetos móveis

Gusmão de Gouveia Nóbrega, Eduardo January 2006 (has links)
Made available in DSpace on 2014-06-12T15:59:31Z (GMT). No. of bitstreams: 2 arquivo5136_1.pdf: 1881993 bytes, checksum: f5fa35339756d41993c0441441ed1d90 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2006 / A proliferação do uso de equipamentos móveis (e.g. laptops, handhelds e celulares) e o desenvolvimento de tecnologias de comunicação digital sem fio (e.g. wireless LANS, redes de pacotes digitais celulares e sistemas de comunicação via satélite) têm tornado a computação móvel uma realidade. Neste contexto, existem ambientes nos quais, objetos móveis se movimentam continuamente em função do tempo. Atualizar de forma contínua os dados sobre a localização dos objetos móveis é inadequado, pois pode causar uma sobrecarga de trabalho e consumo alto da largura de banda da rede e gerar respostas desatualizadas para determinadas consultas. Desta forma, o armazenamento de dados sobre a localização de objetos móveis traz uma série de desafios. Neste trabalho, é proposto o sistema MODAS (Mobile Object Database Adaptive System). Tal sistema visa minimizar os problemas causados pela continuidade do movimento dos objetos móveis, levando em consideração algumas condições dos ambientes móveis, tais como, operações desconectadas, baixa largura de banda e processamento limitado. Para isto, um modelo de dados espaço-temporal para aplicações de objetos móveis foi desenvolvido. Tal modelo de dados faz uso de políticas de atualização de dados e atributos dinâmicos, cujo principal objetivo é balancear o número de atualizações com a consistência do banco de dados. Atualmente, existem poucas investigações sobre modelagem de dados de objetos móveis que consideram este aspecto. Tais estudos são limitados, pois tratam apenas de objetos que se movem por rotas pré-definidas com um movimento uniforme. O MODAS estende a política de atualização de cálculo inoperante adaptativo ADR (Adaptive dead-reckoning) para dar suporte a objetos móveis que se movimentem livremente em seus cenários, com um movimento uniformemente variado. Além disso, a resolução de consultas deste sistema envolve o tempo passado, presente e futuro. Tal sistema foi implementado no topo de um SGBD objeto-relacional para sua validação e realização de experimentos voltados para um cenário de redes de estradas
96

Uma abordagem para detecção de problemas de qualidade dos dados a partir da avaliação de regras de validação

ALVES, Artur de Carvalho 22 February 2017 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-03-23T16:18:52Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - vbiblioteca-entregue.pdf: 2262393 bytes, checksum: c1702dddb4516c055e0d177cb0a8dd62 (MD5) / Made available in DSpace on 2018-03-23T16:18:52Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - vbiblioteca-entregue.pdf: 2262393 bytes, checksum: c1702dddb4516c055e0d177cb0a8dd62 (MD5) Previous issue date: 2017-02-22 / Estudos apontam que diversas empresas e organizações, públicas e privadas, têm acumulado prejuízos por tomarem decisões baseandose em dados de baixa qualidade. Com isso, vimos que desenvolvedores e usuários têm se preocupado cada vez mais com a Qualidade dos Dados. O aumento dessa preocupação fez com que as pesquisas na área crescessem significamente a fim de medir e melhorar a Qualidade dos Dados. Qualidade é um termo subjetivo e na maior parte das vezes está relacionado à satisfação do usuário. Por esse motivo, a Qualidade dos Dados possui um contexto multidimensional e as pesquisas apontam diferentes métodos de avaliação a partir de diferentes conjuntos de Dimensão de Qualidade dos Dados. Para algumas Dimensões de Qualidade, a avaliação é realizada demaneira objetiva, para outras apenas é possível fazer a avaliação a partir de formulários subjetivos aplicados aos usuários dos dados. Trabalhos recentes apontam que é possível melhorar a Qualidade de Dados a partir de métodos automáticos de deteção e correção de Problemas de Qualidade dos Dados. Nesse contexto, a proposta deste trabalho consiste em apresentar uma abordagem para detecção de Problemas de Qualidade dos Dados a partir da avaliação de Regras de Validação. Para isso, é realizada uma associação entre conjuntos de Regras de Validação de Dados e Dimensões de Qualidade dos Dados. Além disso, foi desenvolvido um protótipo capaz de detectar Problemas de Qualidade dos Dados conforme a abordagem proposta. Por fim, a abordagem e o protótipo desenvolvidos foram utilizados em um estudo de caso em cenário real num contexto de migração de dados. Os resultados mostraram que a proposta se mostrou útil na detecção de Problemas de Qualidade dos Dados, e que a correção dos problemas encontrados, de fato, ajudaram no processo de migração dos dados. / Studies indicate that several companies and organizations, public and private, have accumulated losses by making decisions based on data of low quality. Then, to overcome such problems, developers and users have been increasingly concerned with Data Quality. As a consequence, Data Quality research is growing significantly in order to provide solutions to measure and improve the quality of the data. Quality is a subjective term and is most often related to user satisfaction. For this reason, Data Quality has a multidimensional context and the researches point out different methods of evaluation based on several Data Quality dimensions. For some Data Quality dimensions, the evaluation is performed in an objective way, for others it is only possible to make the subjective evaluations based on the data users opinion. Recent works indicate that automatic methods of detecting and correcting Data Quality Problems may be very useful to improve the data quality . In this context, the proposal of this work is to present an approach to detect Data Quality Problems based on the evaluation of Validation Rules. For this, an association is made between sets of Data Validation Rules and Data Quality Dimensions. In addition, a prototype capable of detecting Data Quality Problems was developed according to the proposed approach. Finally, the developed approach and prototype were used in a case study in a real scenario in a data migration context. The results showed that the proposal proved useful in the detection of Data Quality Problems, and that the correction of those problems, in fact, helped during the process of data migration.
97

Desenvolvimento de uma plataforma computacional integrada para a realização de procedimentos in silico na inovação terapêutica: MODiMOL Workbench

CAVALCANTE, Klaus Ribeiro 04 March 2016 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-04-26T21:58:16Z No. of bitstreams: 1 TESE Klaus Ribeiro Cavalcante.pdf: 8515084 bytes, checksum: 046c89bc4a3bd6f90060767c0f09004c (MD5) / Made available in DSpace on 2018-04-26T21:58:16Z (GMT). No. of bitstreams: 1 TESE Klaus Ribeiro Cavalcante.pdf: 8515084 bytes, checksum: 046c89bc4a3bd6f90060767c0f09004c (MD5) Previous issue date: 2016-03-04 / Metodologias computacionais vêm sendo cada vez mais empregadas com o objetivo de estudar sistemas moleculares, no que diz respeito à sua representação estrutural e explicação do seu comportamento, além da predição de suas propriedades físico-químicas. Desta forma, métodos “in silico” vêm se tornando mais utilizados, sobretudo, no âmbito da inovação terapêutica, devido principalmente a grande disponibilidade de programas gratuitos e equipamentos dedicados, com capacidades computacionais cada vez maiores, voltados para aplicações em modelagem molecular. Vale ressaltar que o uso de metodologias computacionais pode reduzir os custos envolvidos na pesquisa e desenvolvimento de novos fármacos numa indústria farmacêutica em até 50%. Neste contexto, portais científicos fornecem meios para gerenciar dados e executar aplicações científicas em ambientes de computação de alto desempenho (clusters, grids ou nuvens públicas/privadas), através de interfaces amigáveis baseadas na Web. Este presente trabalho apresenta o desenvolvimento de um portal científico, denominado MODiMOL Workbench, cujo objetivo é fornecer acesso a diferentes metodologias e abordagens de modelagem molecular, em ambientes de computação de alto desempenho, assim como suporte para dispositivos móveis (smartphones e tablets), através de interfaces de usuário responsivas, projetadas especialmente para estes tipos de dispositivos, por demonstrarem possuir um enorme potencial como ferramentas de pesquisa a favor da inovação terapêutica. / Computational methodologies have been increasingly employed in order to study molecular systems, their structural representation and elucidation of the behavior, besides prediction of their physicochemical properties. Thus, in silico methods are becoming widely used, especially in the context of therapeutic innovation, mainly due to the huge availability of free softwares and hardware with increasing computational capabilities, focused on applications in molecular modeling. It is worth mentioning that "in silico" methodologies may reduce up to 50% the time spent and costs involved with research and development (R&D) of new drugs in a pharmaceutical industry. In this context, science gateways provide ways to manage data and execute scientific applications in high-performance computing environments (clusters, grids, or private/public clouds) through web-based friendly interfaces. The current work presents the development of a science gateway, named Modimol Workbench, whose goal is to provide access to different methodologies and molecular modeling approaches, in high-performance computing environments, as well as support for mobile devices (smartphones and tablets) through Web responsive user interfaces designed especially for these devices, by demonstrating enormous potential as new research tools for molecular modeling, particularly in therapeutic innovation.
98

Crystal: uma linguagem de modelagem simplificada para apoiar a especificação de programas procedurais em banco de dados relacionais

SANTOS, Crystal de Menezes 17 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-21T22:19:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Crystal de Menezes Santos.pdf: 10633655 bytes, checksum: 2e380e7a1dba986eae644c86df3ef4c3 (MD5) / Made available in DSpace on 2018-06-21T22:19:58Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Crystal de Menezes Santos.pdf: 10633655 bytes, checksum: 2e380e7a1dba986eae644c86df3ef4c3 (MD5) Previous issue date: 2017-02-17 / No contexto deste trabalho, uma linguagem de modelagem é qualquer linguagem artificial que, a partir de um conjunto consistente de construtores e de regras de associação entre estes, pode ser usada para di agram ar um domínio e, consequentemente, gerar código interpretável ou executável. O uso de linguagem de modelagem para diagramar programas procedurais em Banco de Dados Relacionais ainda é um tema que tem limitações, principalmente: metamodelos pouco expressivos (ou inexistentes) e notação gráfica sobrecarregada e pouco abrangente. Visando superar estas limitações, esta dissertação propõe Crystal, uma linguagem de modelagem simplificada para apoiar a especificação de programas procedurais para Banco de Dados Relacionais. Crystal é fortemente baseada em Model Driven Development (MDD) - um paradigma da Engenharia de Software que gera código interpretável/executável a partir de modelos. Isto é, em MDD, modelos são mais do que artefatos de documentação, pois estes correspondem a objetos executáveis. Visando mostrar a viabilidade da linguagem proposta, a ferramenta CrystalCASE é desenvolvida como prova de conceito. Além disso, de modo a apresentar evidências que o trabalho proposto avança o estado da arte, são especificados cenários de testes que exploram os principais construtores de Procedural Language/Structured Query Language (PLSQL) e, a partir desses cenários, o trabalho proposto é comparado com os principais trabalhos relacionados. Como resultado das análises comparativas, pode-se constatar que o trabalho proposto tem as seguintes vantagens: metamodelo mais expressivo e notação gráfica mais simplificada e representativa. / Within the context of this dissertation, a modeling language is any artificial language that, from a set of consistent constructors and mies of association between them, can be used to diagram a dom ai n and, consequently, generate interpretable or executable code. The use of modeling language to diagram procedural programs in relational database is still a limited subject within boundaries, mostly: unexpressive (or inexisting) metamodels and meticulous and overloaded graphic notation. Aiming at overcoming limits, this dissertation proposes Crystal, a modeling simplified language to support procedural program specification for relational databases. Crystal is strongly based in Model Driven Development (MDD) - Software Engineering paradigm that generates interpretable/executable code from existing models. That is, in MDD, models are more than documentation assets, because such models correspond to executable objects. In order to show the feasibility of the proposed language, the CrystalCASE tool is developed as proof of concept. Beyond that, in order to present evidence that the proposed model advances the State of the art, test scenarios are specified exploring the main Procedural Language/Structured Query Language (PLSQL) constructors and, from these scenarios, the proposed model is compared with most relevant related work. As a result of the comparative analysis, it can be seen that the proposed model presents the following advantages: more expressive metamodel and more simplified and representational graphic notation.
99

Gerenciamento de transações : um estudo e uma proposta

Lima, George Marconi de Araujo 16 September 1996 (has links)
Orientador: Maria Beatriz Felgar de Toledo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-21T18:11:02Z (GMT). No. of bitstreams: 1 Lima_GeorgeMarconideAraujo_M.pdf: 3869700 bytes, checksum: eff9694586ec34812a8ddf99d4445fc3 (MD5) Previous issue date: 1996 / Resumo: A fim de preservar a consistência dos dados, pode-se utilizar técnicas de controle de concorrência e recuperação de falhas oferecidas por transações. Os primeiros mecanismos foram desenvolvidos para um ambiente em que as aplicações têm curta duração e requerem isolamento. Contudo, com o aparecimento de novas aplicações, tais como CAD/CAM, CASE e SIG, outros requisitos, tais como longa duração e trabalho cooperativo, tiveram que ser considerados. A presente dissertação apresenta um estudo de vários modelos para gerenciamento de transações e a integração de gerenciamento de transações e versões. Baseados nesse estudo, descrevemos uma solução para o gerenciamento de transações adaptável aos requisitos de vários tipos de aplicações: aplicações de curta duração que requerem gerenciamento tradicional; aplicações de longa duração que requerem gerenciamento mais flexível para permitir a liberação antecipada de recursos e aplicações baseadas em trabalho de grupos que requerem o aninhamento de transações e a transferência de objetos entre áreas de trabalho de transações cooperativas. O modelo proposto é baseado numa hierarquia de classes que define gerenciadores de transações para cada uma das categorias de aplicações descritas acima. Cada aplicação pode criar instâncias do gerenciador mais adequado para suas características ou, então, estender algum gerenciador existente através do mecanismo de herança / Abstract: In order to preserve data consistency, concurrency control and failure recovery techniques supported by transactions may be used. The first mechanisms were developed for an environment in which applications have short duration and require isolation. However, with the appearance of new applications such as CAD/CAM, CASE and GIS, other requirements have to be considered. This dissertation studies several models of transaction management and the integration of transaction and version management. Based on this study, a solution for adapting transaction management to several styles of applications is described: short-duration applications requiring traditional management; long-duration applications requiring flexible transaction management to allow early release of resources and applications based on group work requiring nested transactions and facilities to exchange objects between transaction work areas. The proposed model is based on a hierarchy of classes defining transaction managers for each of the above categories of applications. Each applications can instantiate the manager more suitable for its characteristics or extend an existing manager using the inheritance mechanism / Mestrado / Mestre em Ciência da Computação
100

Processamento de consultas ao banco de dados de biodiversidade do BIOTA

Matias, Sandro de Paula 27 July 2018 (has links)
Orientador: Claudia Maria Bauzer Medeiros / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-27T09:27:54Z (GMT). No. of bitstreams: 1 Matias_SandrodePaula_M.pdf: 16947439 bytes, checksum: 08f41069a3254703fced5a47ceffd816 (MD5) Previous issue date: 2000 / Resumo: O SINBIOTASP é o sistema de informação para biodiversidade atualmente sendo desenvolvido como parte do programa BIOTA/FAPESP. Esta dissertação está voltada ao problema da implementação adequada de mecanismos para processamento de consultas no SINBIOTASP. Este tópico apresenta vários desafios tanto do ponto de vista de formulação das consultas quanto de seu processamento, pela variedade e volume dos dados considerados e pela gama de perfis de usuários do sistema. As principais contribuições deste trabalho são: o levantamento de características de processamento de consultas de diversos sistemas de informação ambiental disponíveis na Web; uma proposta de sistematização dos tipos de consultas comuns em projetos de biodiversidade, sob critérios de processamento e interface; e a especificação de um conjunto básico de operadores espaciais, bem como interfaces para as consultas, envolvendo mapas e dados textuais, no contexto da informação ambiental para a biodiversidade. Como contribuição final, esta análise foi validada pelo desenvolvimento do módulo Species Mapper do SINBIOTASP, que permite o processamento via Web de consultas sobre coletas e distribuição de espécies. / Abstract: SINBIOTASP is the biodiversity information system being developed as part of the BIOTA/FAPESP program. This thesis is focused in the implementation issues of the query processing of the SINBIOTASP system. This subject presents many challenges in the formulation and the processing of the queries, due to the variety and the volume of the data and to the wide range of system user profiles. The main contributions of this work are: a survey of the query processing features of many environmental information systems on the Web; a systematization of the query types which are typical of biodiversity application, considering processing and interface criteria; and specification of a basic set of spatial operators, as well general query interfaces, involving maps and textual data, in the context of biodiversity environmental information systems. As a final contribution, this analysis was validated by the development of the Species Mapper module of SINBIOTASP, which allows Web query processing on collection and distribution of species. / Mestrado / Mestre em Ciência da Computação

Page generated in 0.0342 seconds