• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2093
  • 114
  • 108
  • 31
  • 24
  • 24
  • 24
  • 16
  • 12
  • 12
  • 10
  • 10
  • 10
  • 7
  • 5
  • Tagged with
  • 2372
  • 1380
  • 365
  • 310
  • 301
  • 282
  • 247
  • 239
  • 220
  • 188
  • 186
  • 179
  • 171
  • 165
  • 152
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Bancos de dados móveis

Ito, Giani Carla January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico / Made available in DSpace on 2012-10-18T05:16:48Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T22:02:56Z : No. of bitstreams: 1 178707.pdf: 4510087 bytes, checksum: 029692c83b48b1b20d96c05e97425110 (MD5) / O volume de dados processados e principalmente armazenados tem crescido de forma exponencial, por este motivo estão surgindo tecnologias novas que possam acompanhar esta evolução. Grandes conquistas tecnológicas do homem estão se miniaturizando em alta velocidade. É importante que o banco de dados busque adaptabilidade à velocidade das transformações que ocorrem em todos os setores computacionais, conferindo uma crescente importância para a habilidade de armazenar, gerenciar e recuperar dados. O trabalho proposto tem como objeto de estudo banco de dados móveis com ênfase em soluções propostas para gerenciamento de dados, analisando aspectos como gerenciamento de transações, processamento de consultas, replicação de dados, recuperação de falhas e segurança de dados. Além dos aspectos de gerenciamento de dados, o trabalho presente aborda a aplicabilidade dos bancos de dados móveis, sua arquitetura, vantagens, restrições e objetivos, reunindo conceitos sobre computação móvel, comunicação sem fio, protocolos móveis, banco de dados distribuídos e os principais produtos existentes no mercado relacionado à plataforma móvel
142

Projeto e implantação de um sistema computadorizado de banco de dados de usinagem (CINFUS)

Boehs, Lourival January 1988 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina. Centro Tecnologico / Made available in DSpace on 2012-10-16T02:02:28Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T15:54:03Z : No. of bitstreams: 1 83192.pdf: 3294393 bytes, checksum: 65d085fbde276cde33b406d59d27118a (MD5) / O presente trabalho trata do projeto e da implantação do primeiro sistema computadorizado de banco de dados de usinagem, desenvolvido no Brasil e implementado tanto em computador de grande porte (IBM-4341) quanto em microcomputador do tipo PC-IBM. Tal sistema faz parte do Centro de Informações de Usinagem (CINFUS), instalado no departamento de Engenharia Mecânica da UFSC, que dispõe de uma infra-estrutura de pessoal e equipamentos capaz de atender às necessidades desse Centro de Informações. As atribuições principais do Centro são: geração, coleta, armazenamento e divulgação de dados de usinagem, principalmente para o ambiente industrial brasileiro. A opção pelo citado tema de trabalho, deve-se às dificuldades que existem, na indústria metal-mecânica nacional, para se obter dados de corte que possam representar as condições de usinagem mais favoráveis em relação a custos, volume de fabricação e qualidade do produto a ser produzido. Esta constatação é válida para os diferentes processos de usinagem. Nessa etapa inicial de funcionamento o sistema foi desenvolvido para os processos de torneamento, fresamento e furação. O trabalho comprova o grande potencial do sistema de banco de dados de usinagem, não só através de suas múltiplas aplicações, mas também através de suas características de funcionamento e possibilidades para formação de uma ampla base de dados, cujo crescimento tornará seu conteúdo cada vez mais representativo. Em função desse resultado, justifica-se o investimento na expansão do sistema para outros processos de usinagem, assim como para a intensificação dos trabalhos experimentais, com vistas à obtenção de dados de usinagem complementares.
143

Funcionalidades temporais do banco de dados Oracle e mecanismos para consultas de tempo de validade

Oliveira, Alex Martins de January 2003 (has links)
Apesar das vantagens das funcionalidades de banco de dados temporais, já amplamente demonstradas na literatura, ainda não existe, comercialmente, um SGBD totalmente temporal. Algumas propostas já foram feitas, embora um pouco discretas, dando ênfase em apenas parte das funcionalidades temporais, já sinalizando que em breve será possível existir um SGBD puramente temporal. Uma dessas propostas se constitui na implementação de uma camada de software que simula um banco de dados temporal, chamada Pacote de Tempo de Validade – PTV. Ela foi desenvolvida para demonstrar algumas funções temporais de banco de dados de tempo de validade. Embora o PTV tenha funções para garantir a integridade de dados temporais na inserção de tuplas, além de outros controles, não apresenta funções de consultas temporais. Essas funções foram desenvolvidas neste trabalho com base no TSQL2, aumentando, portanto, as funcionalidades temporais do PTV. Elas foram desenvolvidas para o SGBD Oracle 9i e consistem da principal proposta desse trabalho, permitindo inclusive validar as funções de consultas temporais de outras propostas da literatura. A segunda proposta desse trabalho é prover aos desenvolvedores e pesquisadores dessa área, uma interface visual apropriada para o uso do PTV, permitindo, assim, a exploração máxima dos recursos temporais desse pacote.
144

PTV - Pacote de Tempo de Validade para o SGBD Oracle

Pinheiro, Sandro Favin January 2003 (has links)
Embora há muito tempo já se tenha conhecimento da importância da recuperação de informações temporais, não existe um SGBD temporal que tenha sido desenvolvido unicamente para aplicações comerciais, que supra todas as necessidades e abranja todos os aspectos temporais necessários a estas aplicações. O SGBD da Oracle, a partir da versão 8i, possibilita a inserção de características temporais similares às de tempo de transação no BD, através de um pacote de tempo denominado Time Series Cartridge. Entretanto, em muitos casos, a utilização deste cartucho de tempo não é suficiente para que se possa implementar por completo tudo o que foi especificado na modelagem do sistema. A modelagem completa da realidade só é alcançada se forem utilizadas em conjunto as características de tempo de transação e de tempo de validade no banco de dados. Neste trabalho são sugeridos e implementados mecanismos para a inserção e o gerenciamento do tempo de validade no SGBD Oracle. O tempo de validade é administrado através da execução de funções, procedimentos, gatilhos e objetos, organizados em forma de um pacote, de maneira que este possa ser utilizado em conjunto com o Time Series Cartridge.
145

Um modelo de dados para ambientes de projeto

Machado, Javam de Castro January 1990 (has links)
A aplicação de projeto é comumente classificada como uma aplicação não-convencional. Como tal, apresenta requerimentos no tratamento dos dados que os bancos de dados comercialmente disponíveis não conseguem satisfazer /SID 80/. A estruturação dos dados dos sistemas que apóiam o projeto de sistemas digitais tem muito em comum com a organização dos dados nos modernos ambientes de desenvolvimento de software /MAC 89/. Este trabalho tem por objetivo propor um modelo de dados capaz de suprir as necessidades de modelagem dos dados dos ambientes de projeto de software e de hardware. O modelo proposto, chamado de BD_PAC, é uma extensão do modelo de dados do Sistema DAMOKLES. Ele apresenta os conceitos de objetos e relacionamentos organizados em tipos. Um tipo define a estrutura dos seus objetos. Os relacionamentos possibilitam ligações genéricas entre objetos, ou seja, ligações sem significado semantico preciso para o modelo de dados. O BD_PAC suporta uma coleção de conceitos de abstração /BRO 84/ que organiza e associa os objetos. O conceito de agregação corresponde a noção de propriedade no sentido de composição /MAT 88/. Objetos agregados podem compartilhar objetos componentes. O conceito de generalização suporta a formação de hierarquias de supertipos e subtipos. Nestas hierarquias, os subtipos herdam as propriedades dos supertipos.O conceito de associação permite a criação de conjuntos de objetos. 0 modelo fornece algumas funções para calcular automaticamente valores dos atributos dos conjuntos de acordo com valores dos atributos dos objetos membros. Todos estes conceitos podem-se compor indistintamente, formando hierarquias mistas em conceitos. O piano de versões do DAMOKLES também foi modificado. Ele agora reflete as características semânticas dos tipos versionados. Os tipos de objetos podem ser versionados ou não-versionados. Os objetos de urn tipo não-versionado são objetos que mantém a estrutura declarada no tipo. Por outro lado, cada objeto de tipo versionado é interpretado como um objeto abstrato que agrupa o conjunto de suas versões. As versões dos tipos versionados assumem a estrutura declarada no tipo. Finalmente, o BD_PAC é implementado tendo como base o sistema de gerencia de banco de dados DAMOKLES. Isto significa que, alem das características comuns de SGBDs (controle de concorrência, reconstrução de falha), são mantidas todas as facilidades de gerencia de dados para ambientes de projeto do DAMOKLES. Por exemplo, suporte para transação de projeto e manutenção de áreas de dados públicas e privativas a projetistas. / Design application has been classified as a nonconventional application. As such, it presents data processing requirements that are not fulfilled with the database management systems available commercially /SID 80/. The data structure of the systems that support digital systems design has much in common with the data organization in the moderns software development environments /MAC 89/. This work's goal is to propose a data model that is able to fulfil the data modelling necessities of the software and hardware design environments. The proposed data model, called BD_PAC, is an extension of the DAMOKLES Design Object Data Model. It supports objects and relationships organized in types. An object type defines the structure of its objects. Relationships allow generic connection between objects, that is, connections that have no semantic meaning to the data model. BI)_PAC supports a collection of abstraction concepts /BRO 84/ that organize and associate objects. The aggregation concept corresponds to the notion of property, in the sense of composition /MAT 88/. Aggregate objects are allowed to share component objects. The generalization concept supports supertype and subtypes hierarchies. In those hierarchies, subtypes inherit the supertypes properties. The association concept supports object set creation. the data model offers some functions to be used in the automatic derivation of set attributes. The derivation is done over the values of the member objects' attributes. All these abstraction concepts may be integrated to form concept mixed hierarchies. The DAMOKLES versions plan has been also modified. It now reflects the semantic characteristics of versioned types. Object types may be either versioned or non-versioned. The objects of a nonversioned type keep the structured declared for the type. Otherwise, each object of a versioned type is treated as an abstract object that groups its version set. Versions of versioned types assume the structured declared for the type. Finally, BD_PAC is implemented over the DAMOKLES database management system. It means that, besides those common characteristics found in DBMS (concurrence control, recovery), facilities specially implemented for design application in DAMOKLES are also kept. For example, support for design transaction and public and private databases.
146

Gerenciamento de documentação técnica para ambientes de engenharia/CAD com suporte a versões

Giaretta, Joacir January 2001 (has links)
Ambientes de engenharia apresentam a forte característica da necessidade de cooperação entre projetistas na concepção de projetos CAD, o que provoca uma série de problemas em relação aos ambientes usuais encontrados em aplicações convencionais. Na busca de solucionar tais problemas, vários recursos e mecanismos relativos às gerências de dados e do processo de projeto são apresentados em vários estudos encontrados na literatura. Boa parte desses recursos estão embutidos nesse trabalho, que visa apresentar um sistema gerenciador de documentação técnica para ambientes de engenharia/CAD chamado GerDoc Ábacus. A proposta da construção do GerDoc Ábacus é baseada na busca da solução dos problemas relativos à consistência dos dados de projetos e da integração de tarefas de projetistas que interagem em ambientes distribuídos de projeto. Unindo vários mecanismos, é proposta uma interface totalmente interativa, objetivando manter a harmonia entre projetistas que fazem parte de equipes de projetos que são mantidos em atividade durante longos períodos de tempo, além de documentar todos os passos realizados acerca de cada um desses projetos. Dessa forma, o GerDoc Ábacus é uma ferramenta organizacional e administrativa para projetos de engenharia, sendo de fácil operacionalização, buscando altos níveis de integridade dos dados mantidos.
147

Database recovery in the design environment : requirements analysis and performance evaluation

Iochpe, Cirano January 1989 (has links)
In the pastfew years, considerable research effort has been spent on data models, processing mo deis, and system architectures for supporting advanced applications Uke CADICAM, software engineering, image processing, and knowledge management. These so-called non-standard applications pose new requirements on database systems. Conventional database systems (i.e. database systems constructed to support businessrelated applications) either cope with the new requirements only in an unsatisfactory way or do not cope with them at ali. Examples ofsuch new requirements are the need of more powerful data models which enable the definition as well as manipulation offairly structured data objects and the requirement of new processing models which better support long-time data manipulation as well as allow database system users to exchange noncommitted results. To better support new data and processing models, new database systems have been proposed and developed which realize object-oriented data models that in turn support the definition and operation of both complex object structures and object behavior. In design environments as the ones represented by CAD applications, these so-called non-standard database systems are usually distributed over server-workstations computer configwations. While actual object versions are kept in the so-called public database on server, designers create new objects as well as new object versions in their private databases which are maintained by the system at the workstations. Besides that, many new design database system prototypes realize a hierarchy of system buffers to accelerate data processing at the system s application level. While the storage subsystem implements the traditional page/segment buffer to reduce the number of I/O-operations between main memory and diste, data objects are processed by application programs at the workstatíon at higher leveis ofabstraction and the objects are kept there by so-called object-oriented buffer managers in special main memory representations. The present dissertation reports on the investigation of database recovery requirements and database recovery performance in design environments. The term design environment is used here to characterize those data processing environments which support so-called design applications (e.g. CADICAM, software engineering). The dissertation begins by analyzing the conanon architectural characteristics of a set of new design database system prototypes. After proposing a reference architecture for those systems, we investigate the properties of a set ofwell known design processing models which can be found in the literature. Relying on both the reference architecture and the characteristics of design processing models, the dissertation presents a thorough study of recovery requirements in the design environment. Then, the possibility ofadapting existing recovery techniques to maintain system reliability in design database systems is investigated. Finally, the dissertation reports on a recovery performance evaluation involving several existing as well as new recovery mechanisms. The simulation model used in the performance analysis is described and the simulation results are presented.
148

Utilizando funções de autenticação de mensagens para a detecção e recuperação de violações de integridade de acesso a tabelas relacionais

Silvério, Anderson Luiz January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014 / Made available in DSpace on 2015-02-05T21:08:53Z (GMT). No. of bitstreams: 1 330918.pdf: 4046809 bytes, checksum: be44b72591845a95dea81acfac239c22 (MD5) Previous issue date: 2014 / Este trabalho propõe métodos para verificar a integridade dos dados em tempo real, simplificando e automatizando um processo de auditoria. Os métodos propostos utilizam funções criptográficas de baixo custo, são independentes do sistema de banco de dados e permitem a detecção de atualizações, remoções e inserções maliciosas, além da verificação da atualidade de registros e recuperação de tuplas modificadas de forma indevida. A detecção das alterações maliciosas dos dados é feita através de funções MAC, calculadas sobre a concatenação dos atributos de cada tupla das tabelas. Já a detecção da remoção é feita através de um novo algoritmo proposto, chamado CMAC, que faz o encadeamento de todas as linhas de uma tabela, não permitindo que novas linhas sejam inseridas ou removidas sem o conhecimento da chave utilizada para o cálculo do CMAC. Este trabalho também explora diferentes arquiteturas para a implementação dos métodos propostos, apresentando as vantagens e desvantagens de cada arquitetura. Além disso, é feita a avaliação dos métodos propostos, mostrando que o custo para calcular e armazenar os dados necessários para controlar a integridade é muito pequeno.<br> / Abstract: Unauthorized changes to database content can result in significant losses for organizations and individuals. As a result, there is a need for mechanisms capable of assuring the integrity of stored data. Meanwhile, existing solutions have requirements that are difficult to meet in real world environments. These requirements can include modifications to the database engine or the usage of costly cryptographic functions. In this master's thesis, we propose a technique that uses low cost cryptographic functions and it is independent of the database engine. Our approach allows for the detection of malicious update operations, as well as insertion and deletion operations. This is achieved by the insertion of a small amount of protection data into the database.The protection data is utilized by the data owner for data access security by applying Message Authentication Codes. In addition, our experiments have shown that the overhead of calculating and storing the protection data is very low.
149

Embajadores silenciosos: diseño de billetes en Chile 1925 a 2007

Fuentes F., Carlos January 2007 (has links)
No autorizada por el autor para ser publicada a texto completo / La investigación en torno a la evolución gráfica presente en nuestros billetes permitirá aumentar el área de conocimientos que el Diseñador como profesional debe contemplar. En el mundo entero el diseño de billetes es realizado desde su conceptualización, exclusivamente por Diseñadores Gráficos profesionales. En nuestro país, el diseño de billetes es un tema completamente
150

Projeto lógico de bancos de dados NOSQL colunares a partir de esquemas conceituais entidade-relacionamento estendido (EER)

Poffo, João Paulo January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016 / Made available in DSpace on 2016-09-20T04:41:50Z (GMT). No. of bitstreams: 1 341624.pdf: 936772 bytes, checksum: 7c73170dc92ab000e009c8cb16e6f936 (MD5) Previous issue date: 2016 / Tecnologias emergentes muitas vezes mudam paradigmas. NoSQL é uma delas e está ganhando terreno com a onda Big Data, onde o volume de dados quebrou a barreira dos petabytes e a informação contida nestes dados é fundamental para decisões estratégicas. Nesse contexto, os tradicionais bancos de dados relacionais se mostram inadequados para gerenciar com eficiência o acesso a tais dados e, consequentemente, as metodologias tradicionais de projeto, voltadas para a construção destes bancos de dados, devem ser revistas para se adequar aos novos modelos de dados que surgiram com o NoSQL, como é o caso do modelo de dados colunar. Nota-se, especificamente para o caso de projeto de bancos de dados para BDs colunares, que a literatura carece de metodologias de projeto lógico, metodologias estas que convertem modelagens conceituais para representações lógicas adequadas e eficientes para fins de armazenamento e acesso. Assim sendo, esta dissertação propõe uma metodologia de projeto lógico para bancos de dados colunares que contribui para preencher o hiato existente entre o clássico projeto de banco de dados e a vanguarda tecnológica com o movimento NoSQL, em particular, a construção de bancos de dados colunares. Experimentos preliminares demonstraram, comparativamente, que a metodologia é promissora.<br> / Abstract: Emerging technologies often break paradigms. NoSQL is one of them and is gaining space with the Big Data ascension, where the data volume exceeded the petabyte frontier and the information within these data can be of great importance to strategic decisions. In this case, legacy relational databases show themselves inadequate to efficiently manage these data and consequently, their traditional project methodologies must be reviewed to be suitable to new models, such as columnar data model. Regarding columnar database design, the literature lacks of methodologies for logical design, i.e., processes that convert a conceptual schema to a logical schema that optimize access and storage. In this context, this work proposes an approach for logical design of columnar databases that contributes to fill the void between classic project methodologies and the technological forefront with the NoSQL movement, in particular, columnar databases. Preliminary experiments demonstrated that the methodology is promising, if compared with a baseline.

Page generated in 0.1023 seconds