• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6158
  • 344
  • 174
  • 151
  • 151
  • 146
  • 78
  • 73
  • 62
  • 59
  • 58
  • 58
  • 7
  • 3
  • 3
  • Tagged with
  • 6651
  • 2729
  • 1380
  • 1042
  • 911
  • 895
  • 859
  • 753
  • 749
  • 692
  • 685
  • 659
  • 621
  • 609
  • 567
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ferramenta de migração de dados para o ALERT

Lima, Maria Micaela Vieira Coelho de January 2009 (has links)
Tese de mestrado integrado. Engenharia Informática. Faculdade de Engenharia. Universidade do Porto. 2009
2

Modelo de gerenciamento de versões para evolução de Data Warehouses

Schlöttgen, Alexandre January 2004 (has links)
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
3

Um Estudo de metodologias para criação de um depósito de dados

Valente, Daphnis Lopes January 2001 (has links)
Este estudo tem como objetivo analisar as diferentes metodologias existentes para criação de Depósito de Dados (DD) e determinar uma metodologia que melhor atenda às necessidades de uma empresa de telecomunicações, iniciando um projeto de DD e identificando as causas mais comuns de insucesso, a serem evitadas em projetos desta natureza. E para comprovar esta metodologia foi construído um Data Mart utilizando dados da Cia. Rio-grandense de Telecomunicações, com objetivo de análise de qualidade dos bilhetes utilizados nos indicadores de desempenho de centrais bilhetadoras. Apresenta, também, as arquiteturas possíveis de um Depósito de Dados/Data Mart, suas características e diferenças. Esta Dissertação de Mestrado é uma contribuição à pesquisa e à análise de metodologias empregadas na criação e manutenção de Depósitos de Dados e a determinação de uma metodologia que atenda às necessidades de uma empresa de telecomunicações.
4

Um Estudo de metodologias para criação de um depósito de dados

Valente, Daphnis Lopes January 2001 (has links)
Este estudo tem como objetivo analisar as diferentes metodologias existentes para criação de Depósito de Dados (DD) e determinar uma metodologia que melhor atenda às necessidades de uma empresa de telecomunicações, iniciando um projeto de DD e identificando as causas mais comuns de insucesso, a serem evitadas em projetos desta natureza. E para comprovar esta metodologia foi construído um Data Mart utilizando dados da Cia. Rio-grandense de Telecomunicações, com objetivo de análise de qualidade dos bilhetes utilizados nos indicadores de desempenho de centrais bilhetadoras. Apresenta, também, as arquiteturas possíveis de um Depósito de Dados/Data Mart, suas características e diferenças. Esta Dissertação de Mestrado é uma contribuição à pesquisa e à análise de metodologias empregadas na criação e manutenção de Depósitos de Dados e a determinação de uma metodologia que atenda às necessidades de uma empresa de telecomunicações.
5

Modelo de gerenciamento de versões para evolução de Data Warehouses

Schlöttgen, Alexandre January 2004 (has links)
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
6

Modelo de gerenciamento de versões para evolução de Data Warehouses

Schlöttgen, Alexandre January 2004 (has links)
Sistemas de tomada de decisão baseados em Data Warehouse (DW) estão sendo cada dia mais utilizados por grandes empresas e organizações. O modelo multidimensional de organização dos dados utilizado por estes sistemas, juntamente com as técnicas de processamento analítico on-line (OLAP), permitem análises complexas sobre o histórico dos negócios através de uma simples e intuitiva interface de consulta. Apesar dos DWs armazenarem dados históricos por natureza, as estruturas de organização e classificação destes dados, chamadas de dimensões, não possuem a rigor uma representação temporal, refletindo somente a estrutura corrente. Para um sistema destinado à análise de dados, a falta do histórico das dimensões impossibilita consultas sobre o ambiente real de contextualização dos dados passados. Além disso, as alterações dos esquemas multidimensionais precisam ser assistidas e gerenciadas por um modelo de evolução, de forma a garantir a consistência e integridade do modelo multidimensional sem a perda de informações relevantes. Neste trabalho são apresentadas dezessete operações de alteração de esquema e sete operações de alteração de instâncias para modelos multidimensionais de DW. Um modelo de versões, baseado na associação de intervalos de validade aos esquemas e instâncias, é proposto para o gerenciamento dessas operações. Todo o histórico de definições e de dados do DW é mantido por esse modelo, permitindo análises completas dos dados passados e da evolução do DW. Além de suportar consultas históricas sobre as definições e as instâncias do DW, o modelo também permite a manutenção de mais de um esquema ativo simultaneamente. Isto é, dois ou mais esquemas podem continuar a ter seus dados atualizados periodicamente, permitindo assim que as aplicações possam consultar dados recentes utilizando diferentes versões de esquema.
7

Otimização de acesso em um sistema de integração de dados através do uso de caching e materialização de dados

BATISTA, Maria da Conceição Moraes January 2003 (has links)
Made available in DSpace on 2014-06-12T15:58:51Z (GMT). No. of bitstreams: 2 arquivo4733_1.pdf: 880825 bytes, checksum: f98e9dd65830a1642ae36a2ba204441e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de integração de dados oferecem acesso uniforme sobre fontes de dados heterogêneas e distribuídas. Para fornecer um acesso integrado a diversas fontes de dados, duas abordagens clássicas foram propostas na literatura atual: abordagem materializada e abordagem virtual. Na abordagem materializada, os dados são previamente acessados, integrados e armazenados em um data warehouse e as consultas submetidas ao sistema de integração são processadas nesse repositório sem haver acesso direto às fontes de dados. Na abordagem virtual, as consultas submetidas ao sistema de integração são decompostas em subconsultas endereçadas diretamente às fontes de dados. Os dados obtidos das fontes como resposta a essas subconsultas são integrados e retornados ao usuário solicitante. O nosso trabalho, consiste em criar um ambiente de integração de dados provenientes de múltiplas fontes no ambiente Web o qual combina recursos de ambas as abordagens suportando o processamento de consultas virtuais e materializadas. Um outro recurso de nossa proposta é a inserção de um subsistema de gerenciamento de uma cache para armazenar os resultados das consultas mais freqüentemente submetidas pelo usuário. O ambiente tem recursos de materialização de dados em um data warehouse, e o processo de materialização é feito seletivamente com base na análise e classificação de critérios de qualidade e custo associados aos dados das fontes. Essa seleção criteriosa visa equilibrar melhorias no tempo de resposta das consultas com taxas de custo de manutenção do data warehouse aceitáveis. A partir de uma arquitetura de integração de dados baseada na abordagem virtual, foram incluídos módulos para gerenciamento do data warehouse, gerenciamento da cache e módulos de processamento de consultas sob três formas: virtuais com acesso às fontes de dados, materializadas com acesso ao data warehouse e consultas acessando diretamente a cache. Todos esses recursos são colocados em conjunto visando obter ganhos no desempenho do processamento das consultas no sistema de integração
8

Usando um serviço de mensageria criado com a API JMS para manter a consistência de dados em banco de dados relacionais distribuídos

LIMA JUNIOR, Rivaldo Guimarães de 12 May 2017 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-08-01T19:49:40Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-03T19:25:17Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) / Made available in DSpace on 2018-08-03T19:25:18Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Rivaldo Guimarães de Lima Junior.pdf: 1834166 bytes, checksum: 9a812331b16fc6031d784504512f9380 (MD5) Previous issue date: 2017-05-12 / De acordo com o Teorema CAP (Consistency, Availability e Partition Tolerance), não é possível alcançar, em um sistema distribuído, e ao mesmo tempo, as características de Consistência, Disponibilidade e Tolerância à Partição (em caso de falhas). Por conta dessa idéia, diversos sistemas de banco de dados em nuvem optaram por relaxar a consistência, priorizando a disponibilidade do serviço. Essa decisão apóia-se no fato de que para muitas aplicações inconsistência nos dados é aceitável quando se consegue a disponibilidade das mesmas, porém, para um número grande de aplicações, essa inconsistência pode representar prejuízos imensuráveis, como no caso de uma aplicação bancária consultando dados inconsistentes de seus clientes. Diante desse quadro se faz necessário investigar e explorar novas opções, que permitam a consistência dos dados, quando estes estão replicados e disponibilizados em nuvem, sem abrir mão da disponibilidade do serviço. Diante do exposto e considerando a Universidade Federal de Pernambuco (UFPE) interessada em replicar seus dados, formando uma nuvem privada, garantindo sua consistência, este trabalho propõe um modelo para manutenção de consistência de dados relacionais replicados, baseado na troca de mensagens entre a aplicação e as réplicas do banco de dados. Realizados testes de cadastros, alterações e exclusões no modelo proposto, foi verificado que o mesmo foi eficaz em manter três réplicas de um banco de dados consistentes entre si. / According to the CAP Theorem (Consistency, Availability e Partition Tolerance), it cannot be achieved in a distributed system, and at the same time, the characteristics of Consistency, Availability and Partition tolerance (in case of failures). Considering this idea, various cloud database systems have chosen to relax the consistency, prioritizing service availability. That decision is supported by the fact that for many applications data inconsistency is acceptable should such data be available. However, for a large number of applications, this inconsistency may cause great losses, as in the case of a banking application querying inconsistent data of their customers. Therefore, it is necessary to investigate and explore new options to allow mantaining data consistency, when such data are replicated and available in the cloud, without giving up service availability. Taking the above into consideration as well as that Federal University of Pernambuco (UFPE) is interested in replicating its data, forming a private cloud, ensuring their consistency, this work proposes a model to mantain consistency of replicated relational data, based on the exchange of messages between the application and the database replicas. After performing tests of registrations, changes and exclusions in the proposed model, it was verified that it was effective in keeping three replicates of a database consistent with each other.
9

Análise dos procedimentos de backup dos institutos federais

RODRIGUES, Wilson Flávio 13 June 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-13T21:38:31Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wilson Flávio Rodrigues.pdf: 6847870 bytes, checksum: 4c8678131370129d8d984f327803304f (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-16T18:21:35Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wilson Flávio Rodrigues.pdf: 6847870 bytes, checksum: 4c8678131370129d8d984f327803304f (MD5) / Made available in DSpace on 2018-08-16T18:21:35Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Wilson Flávio Rodrigues.pdf: 6847870 bytes, checksum: 4c8678131370129d8d984f327803304f (MD5) Previous issue date: 2017-06-13 / A motivação para esta pesquisa surgiu justamente da observação do grande volume de informações que as instituições de ensino armazenam e manipulam a cada dia. Para evitar que as atividades desempenhadas nessas instituições sejam seriamente comprometidas, se faz necessário prover meios que possam garantir que as informações continuarão disponíveis independentemente do que venha a ocorrer. Nesse contexto, este trabalho visa mapear na rede dos Institutos Federais os aspectos referentes à segurança da informação com o foco nas ferramentas usadas para fazer as cópias de segurança (backup), possibilitando identificar deficiências ou falhas no processo de backup e restauração das informações. Por meio das informações coletadas com o questionário respondido pelos Institutos Federais, observou-se que 65,9% dos respondentes não realizam a documentação dos Backups e 65,2% não documentam os testes de restauração. Desta forma, este trabalho propõe o desenvolvimento de um sistema protótipo a fim de melhorar o processo de documentação do backup, além de permitir verificar por meio de um questionário acessível pelo sistema protótipo, saber em que nível o backup se enquadra (ruim, regular, bom ou ótimo) de acordo com as recomendações da norma ISO 27002, possibilitando, assim, melhorar o processo do backup, adequando às boas práticas recomendadas pela norma. O sistema protótipo obteve uma boa aceitação conforme avaliações feitas pelos usuários dos Institutos Federais de Santa Catarina, os quais participaram dos testes e avaliação do protótipo por meio do questionário de satisfação, mostrando-se viável sua utilização no âmbito dos Institutos Federais. / The motivation for this research came precisely from observing the great amount of information that educational institutions store and manipulate every day. In order to avoid that the activities carried out by such institutions be seriously compromised, it is necessary to provide means to ensure that information may continue available no matter what happens. In this context, this work aims at mapping the aspects of information security in the Federal Institutes' network with a focus on the tools used to perform backups, making it possible to identify deficiencies or failures in the process of information backup and restoration. Through the information collected with the questionnaire answered by the Federal Institutes, it was observed that 65.9% of the respondents do not perform the documentation of the backups and 65.2% do not document the restoration tests. In this way, we propose the development of a prototype system in order to improve the backup documentation process, in addition to verifying through a questionnaire accessible by the prototype system, to which extent backup fits in (Bad, Regular, Good or Optimal) in accordance with the recommendations of the ISO 27002 standard, thus making it possible to improve the backup process, adapting such a process to the best practices recommended by the standards. The prototype system obtained a good acceptance according to the evaluations made by the users of the Federal Institutes of Santa Catarina, in which they participated in the tests and evaluation of the prototype through the questionnaire of satisfaction, highlighting its adequacy to the Federal Institutes.
10

Um Estudo de metodologias para criação de um depósito de dados

Valente, Daphnis Lopes January 2001 (has links)
Este estudo tem como objetivo analisar as diferentes metodologias existentes para criação de Depósito de Dados (DD) e determinar uma metodologia que melhor atenda às necessidades de uma empresa de telecomunicações, iniciando um projeto de DD e identificando as causas mais comuns de insucesso, a serem evitadas em projetos desta natureza. E para comprovar esta metodologia foi construído um Data Mart utilizando dados da Cia. Rio-grandense de Telecomunicações, com objetivo de análise de qualidade dos bilhetes utilizados nos indicadores de desempenho de centrais bilhetadoras. Apresenta, também, as arquiteturas possíveis de um Depósito de Dados/Data Mart, suas características e diferenças. Esta Dissertação de Mestrado é uma contribuição à pesquisa e à análise de metodologias empregadas na criação e manutenção de Depósitos de Dados e a determinação de uma metodologia que atenda às necessidades de uma empresa de telecomunicações.

Page generated in 0.0585 seconds