• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 957
  • 31
  • 30
  • 23
  • 23
  • 23
  • 14
  • 12
  • 11
  • 9
  • 9
  • 9
  • 1
  • Tagged with
  • 1014
  • 1014
  • 266
  • 200
  • 191
  • 191
  • 172
  • 128
  • 123
  • 110
  • 110
  • 106
  • 105
  • 101
  • 87
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
261

O uso do perfil UML Geoprofile como base para a interoperabilidade entre modelos conceituais de banco de dados geográficos / The Use of UML Geoprofile as basis for the interoperability among conceptual geographic database models

Ferreira, Thiago Bicalho 13 May 2016 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2016-09-12T13:05:41Z No. of bitstreams: 1 texto completo.pdf: 5324036 bytes, checksum: f3219f713b7bfbf2dcc25cf8e4a2af4a (MD5) / Made available in DSpace on 2016-09-12T13:05:41Z (GMT). No. of bitstreams: 1 texto completo.pdf: 5324036 bytes, checksum: f3219f713b7bfbf2dcc25cf8e4a2af4a (MD5) Previous issue date: 2016-05-13 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / As pesquisas na área de modelagem conceitual de banco de dados geográficos produziram diversos modelos conceituais e muitas ferramentas Computer-aided software engineering (CASE) específicas. Uma consequência de não se ter um modelo comum é a falta de interoperabilidade entre os esquemas de banco de dados geográficos. A interoperabilidade pode acontecer de forma vertical e horizontal. A interoperabilidade vertical diz respeito ao nível de abstração Model Driven Architecture (MDA) que um esquema pode assumir. Assim, um esquema conceitual Platform Independent Model (PIM) é transformado em um esquema dependente de plataforma Platform Specific Model (PSM) que é então transformado em código fonte. A interoperabilidade horizontal está ligada a possibilidade de um esquema de dados conceitual poder ser visualizado com construtores de diferentes modelos conceituais. A interoperabilidade de esquemas é importante, pois facilita a comunicação entre projetistas de diferentes equipes, possibilita a integração de diferentes projetos e o reuso de soluções já testadas e validadas. Para mostrar a interoperabilidade horizontal e vertical de esquemas é necessário utilizar um ambiente onde as características dos construtores do modelo possam ser replicadas. Características como restrições, ícones gráficos e formato da classe devem ser mantidas. O ambiente também deve oferecer recursos para mostrar de forma automatizada a interoperabilidade horizontal e vertical de esquemas. A ferramenta Enterprise Architect, através da tecnologia Model Driven Generation oferece estes recursos. Este trabalho descreve um método que mostra ser possível alcançar interoperabilidade horizontal e vertical de esquemas de dados geográficos, utilizando o perfil UML GeoProfile como modelo conceitual intermediário. Exemplos de esquemas conceituais de dados, extraídos da literatura, são transformados horizontalmente entre diferentes modelos conceituais. Para mostrar a equivalência dos esquemas, transformações verticais são realizadas, produzindo esquemas de banco de dados equivalentes no nível de código fonte. / Researches on geographic database conceptual modeling have produced several conceptual models and many specific Computer-aided software engineering (CASE) tools. One consequence of there not being a common model is the lack of interoperability among geographic database schemas. Interoperability may occur vertically or horizontally. Vertical interoperability concerns the level of Model Driven Architecture (MDA) abstraction a schema may have. Thus, a PIM (Platform-Independent Model) conceptual schema is transformed into a dependent PSM (Platform-Specific Model) schema, which is then transformed into source code. Horizontal interoperability in linked to the possibility of a conceptual data schema being visualized with constructs of different conceptual models. Schema interoperability is important since it facilitates the communication among designers from different teams and enables integration of different projects and the reuse of previously tested and validated solutions. In order to show the horizontal and vertical schema interoperability, one must use an environment where the characteristics of the model’s constructs can be replicated. Characteristics such as restrictions, graphical icons, and class format must be kept. The environment must also provide resources to automatically show the horizontal and vertical schema interoperability. The Enterprise Architect tool, through the Model Driven Generation technology, offers such resources. This study describes a method that shows it is possible to reach horizontal and vertical interoperability of geographic data schemas using UML GeoProfile as an intermediate conceptual model. Examples of conceptual data schemas, extracted from the literature, are horizontally transformed among different conceptual models. In order to show the schemas are equivalent, vertical transformations are carried out, which produce database schemas equivalent to the source code.
262

Tradução, tecnologia, filosofia

Leal, Luis Carlos Binotto January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão, Programa de Pós-Graduação em Estudos da Tradução, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:49:47Z (GMT). No. of bitstreams: 1 325241.pdf: 357232 bytes, checksum: 8c94f7cc00c4b7c5148fca25cb990276 (MD5) Previous issue date: 2013 / Abstract : This paper presents an analysis of the evolution of the function of thetranslator and translation tools, as well as the gradual replacement ofhuman participation in technical translations either in the languagedeveloped English (F1) for the Portuguese Language (F2) or PortugueseLanguage (F1) for the language English (F2), by using database;thereby, providing the semantic technical automation of these texts, i.e.,the adaptation of a passage to the meaning of reasoning. The researchaimed to analyze and clarify the use of Database in text translations oftechnical areas, demonstrating how much these bases can offer to thosewho use it, as well as validate the necessity of a translator, the humanbeing, in the area of translations philosophy. In this sense, describesdatabases, tools and other resources of automatic translators and analysissuccesses and failures related to the text to be translated in the areas ofEngineering and Philosophy. As a methodological instrument, we choseto analyze three paragraphs of works of the Engineering, aiming todemonstrate the almost perfect translations of using databases and threedifferent paragraphs of works in the field of architecture, demonstratingthe difficulties in translation without human intervention and alsodiscuss the concept commonly used as a category for the quality of workof translation / interpretation: the 'fidelity'. For this purpose, we will usea more philosophical discussion of a Brazilian researcher RosemaryArrojo (1986), that from the end of the 80s, accurately and outstandinghave problematized the concept of fidelity as well as argue aboutmethodology in transkation. The translated parts were removed from theworks of Engineering Numerical Optimization (NACEDAL &WRIGHT, 2006), Pattern Recognition and Machine Learning (Bishop,2006); Hyperspectral Subspace Identification (BIOUCAS &NASCIMENTO, 2008). In the field of philosophy, the three parts of thework were extracted from Architecture and Philosophy (PULS, 2006).The results show that, with the undoubted advances and technologicalimprovements, automatic translators, operating from databases,rhythmic with technological development, apart from philosophicaltranslation, cemented the acceptance of the concept that the use oftechnology not only manifests itself as a powerful enlightening of themasses as to the use of this technology is not only negative.
263

Modelo de gerenciamento da infraestrutura de rede para otimização de nuvem verde

Villarreal, Sergio Roberto January 2014 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2014. / Made available in DSpace on 2015-04-29T21:02:09Z (GMT). No. of bitstreams: 1 333050.pdf: 1755196 bytes, checksum: 5cc4f7adb9d9042757ae2da8541ed3f6 (MD5) Previous issue date: 2014 / Os conceitos propostos pela TI Verde têm mudado as prioridades na concepção dos sistemas de informação e sua infraestrutura, acrescentando aos tradicionais requisitos de desempenho e custo, a necessidade de eficiência no consumo de energia. A abordagem de Computação em Nuvem Verde baseia-se nos conceitos de Computação em Nuvem e TI Verde com o objetivo de oferecer um ambiente computacional flexível e eficiente, porém suas estratégias não têm dado muita atenção para o consumo dos equipamentos de rede. Enquanto a Green Networking tem proposto princípios e técnicas que estão sendo padronizados e implementados nos novos equipamentos de rede, existe nos data centers uma grande quantidade de equipamentos legados sem esses recursos. Neste trabalho, se demonstra que é possível aperfeiçoar a abordagem de nuvem verde e reduzir significativamente o consumo de energia elétrica dos data centers mediante a aplicação de um modelo de gerenciamento dos equipamentos de rede baseado em regras simples que tornam o consumo dos mesmos aproximadamente proporcional ao tráfego. A metodologia utilizada consiste em pesquisa bibliográfica; definição do modelo através de expressões matemáticas e diagramas UML; validação do modelo mediante um estudo de caso aplicado de forma analítica; desenvolvimento de extensões ao simulador CloudSim para suportar o modelo e a realização de simulações para validar seu impacto em diferentes cenários.
264

Caracterização e modelagem multivariada do desempenho de sistemas de arquivos paralelos

Inacio, Eduardo Camilo January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2015. / Made available in DSpace on 2015-04-29T21:10:29Z (GMT). No. of bitstreams: 1 332968.pdf: 1630035 bytes, checksum: ab750b282530f4ce742e30736aa9d74d (MD5) Previous issue date: 2015 / A quantidade de dados digitais gerados diariamente vem aumentando de forma significativa. Por consequência, as aplicações precisam manipular volumes de dados cada vez maiores, dos mais variados formatos e origens, em alta velocidade, sendo essa problemática denominada como Big Data. Uma vez que os dispositivos de armazenamento não acompanharam a evolução de desempenho observada em processadores e memórias principais, esses acabam se tornando os gargalos dessas aplicações. Sistemas de arquivos paralelos são soluções de software que vêm sendo amplamente adotados para mitigar as limitações de entrada e saída (E/S) encontradas nas plataformas computacionais atuais. Contudo, a utilização eficiente dessas soluções de armazenamento depende da compreensão do seu comportamento diante de diferentes condições de uso. Essa é uma tarefa particularmente desafiadora, em função do caráter multivariado do problema, ou seja, do fato de o desempenho geral do sistema depender do relacionamento e da influência de um grande conjunto de variáveis. Nesta dissertação se propõe um modelo analítico multivariado para representar o comportamento do desempenho do armazenamento em sistemas de arquivos paralelos para diferentes configurações e cargas de trabalho. Um extenso conjunto de experimentos, executados em quatro ambientes computacionais reais, foi realizado com o intuito de identificar um número significativo de variáveis relevantes, caracterizar a influência dessas variáveis no desempenho geral do sistema e construir e avaliar o modelo proposto.Como resultado do esforço de caracterização, o efeito de três fatores, não explorados em trabalhos anteriores, é apresentado. Os resultados da avaliação realizada, comparando o comportamento e valores estimados pelo modelo com o comportamento e valores medidos nos ambientes reais para diferentes cenários de uso, demonstraram que o modelo proposto obteve sucesso na representação do desempenho do sistema. Apesar de alguns desvios terem sido encontrados nos valores estimados pelo modelo, considerando o número significativamente maior de cenários de uso avaliados nessa pesquisa em comparação com propostas anteriores encontradas na literatura, a acurácia das predições foi considerada aceitável.<br> / Abstract : The amount of digital data generated dialy has increased significantly.Consequently, applications need to handle increasing volumes of data, in a variety of formats and sources, with high velocity, namely Big Data problem. Since storage devices did not follow the performance evolution observed in processors and main memories, they become the bottleneck of these applications. Parallel file systems are software solutions that have been widely adopted to mitigate input and output (I/O) limitations found in current computing platforms. However, the efficient utilization of these storage solutions depends on the understanding of their behavior in different conditions of use. This is a particularly challenging task, because of the multivariate nature of the problem, namely the fact that the overall performance of the system depends on the relationship and the influence of a large set of variables. This dissertation proposes an analytical multivariate model to represent storage performance behavior in parallel file systems for different configurations and workloads. An extensive set of experiments, executed in four real computing environments, was conducted in order to identify a significant number of relevant variables, to determine the influence of these variables on overall system performance, and to build and evaluate the proposed model. As a result of the characterization effort, the effect of three factors, not explored in previous works, is presented. Results of the model evaluation, comparing the behavior and values estimated by the model with behavior and values measured in real environments for different usage scenarios, showed that the proposed model was successful in system performance representation. Although some deviations were found in the values estimated by the model, considering the significantly higher number of usage scenarios evaluated in this research work compared to previous proposals found in the literature, the accuracy of prediction was considered acceptable.
265

Protocolos tolerantes a faltas bizantinas para transações em bancos de dados

Luiz, Aldelir Fernando January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2015. / Made available in DSpace on 2015-09-01T04:07:56Z (GMT). No. of bitstreams: 1 334062.pdf: 4102624 bytes, checksum: fcf76323275ca0a4c4b3f1ffd5c92285 (MD5) Previous issue date: 2015 / No âmbito de sistemas computacionais, a noção de transações constitui um dos elementos mais fundamentais para a especificação e implementação de aplicações com requisitos de confiabilidade e consistência, quanto à manipulação de dados. Ao longo dos anos, os sistemas de gerenciamento de banco de dados relacionais (SGBDR) têm sido considerados como componentes chave para o processamento de transações em sistemas computacionais; e, embora algumas alternativas aos SGBDRs tenham surgido nos últimos anos, há perspectivas de que um número significativo de sistemas computacionais permaneçam a utilizar os SGBDRs nos anos vindouros. Neste sentido, é imperioso que requisitos como confiabilidade, disponibilidade, desempenho, tolerância a faltas e consistência, sejam mantidos no SGBDR, com vista para o correto processamento de transações. Tais atributos podem ser obtidos por meio de replicação, sendo que a literatura é vasta em termos de soluções que visam a disponibilidade dos dados a despeito de faltas por parada intermitentes ou permanentes. Todavia, faltas oriundas da corrupção de dados em disco ou em memória RAM devido a efeitos físicos, ou decorrente de bugs no SGBDR, não afetam a disponibilidade dos dados, mas sim a integridade e a consistência destes. Estas faltas, que são caracterizadas como bizantinas, historicamente têm sido encontradas em SGBDRs, e elas afetam o processamento de transações comprometendo não apenas a exatidão, mas também o estado do banco de dados. A literatura dispõe de poucas soluções para lidar com faltas bizantinas em SGBDRs, onde algumas são baseadas em hipóteses difíceis de serem substanciadas na prática; ou em modelos de consistência mais relaxados, que podem causar problemas de integridade, consistência ou até mesmo corrupção de dados. Isto posto, elas não atendem plenamente todos os tipos de aplicações. Neste ensejo, esta tese versa sobre problemas relacionados ao processamento e a terminação de transações em SGBDRs e sistemas distribuídos, em ambientes com sujeição a faltas bizantinas. Para isso, esta tese apresenta duas grandes contribuições no âmbito de transações em SGBDRs. A primeira consiste num protocolo que permite o processamento e terminação de transações, a despeito de faltas bizantinas nas réplicas de bancos de dados  o primeiro da literatura a explorar a semântica de consistência mais forte de transações  , a partir de um protocolo de replicação tolerante a faltas bizantinas totalmente distribuído. A segunda investiga o problema da terminação de transações distribuídas em ambientes sujeitos a faltas bizantinas  um problema sem solução pela literatura  , que é conhecido como Validação Atômica Não-Bloqueante (NBAC) e visa assegurar uma decisão uniforme para os participantes da transação acerca da validação ou anulação das operações executadas num ambiente distribuído de banco de dados. A contribuição para este problema se baseia na investigação dos aspectos práticos necessários para resolvê-lo, onde é introduzido o conceito de Gerenciador Colaborativo de Transações em substituição ao Gerenciador de Transações, tradicionalmente empregado como agente num protocolo NBAC. A solução proposta para resolver o NBAC com faltas bizantinas baseia-se num conceito novo, que adota a tecnologia de virtualização como suporte para a especificação de uma arquitetura de sistema distribuído que permite circunscrever o problema. As soluções propostas foram comparadas de maneira analítica com soluções encontradas na literatura, bem como através de ensaios experimentais, a fim de comprovar a viabilidade das mesmas.<br> / Abstract : Within computer systems, the concept of transaction is one of the most fundamental elements for the specification and implementation of applications with reliability and consistency requirements concerning handling of data. Over the years, relational database management systems (RDBMS) have been considered key components for transaction processing in computer systems; and although some alternatives to RDBMSs have emerged in recent years, there are prospects that a significant number of computer systems will continute to use RDBMSs in coming years. In this sense, the need to provide reliability, availability, performance, fault tolerance and consistency, regarding transaction processing in RDBMS is imminent. Such attributes may be obtained through database replication. The literature is extensive in terms of solutions for data availability regardless of crash faults (e.g. intermittent or permanent). However, faults arising from the disk data corruption or RAM data corruption due to physical effects, or due to bugs in the RDBMS, do not affect the availability of data, though they affect their integrity and consistency. These faults, which are known as Byzantine, have historically been found in RDBMSs, and they affect transaction processing undermining not only the accuracy but also the database state. The literature offers few solutions to deal with Byzantine faults in RDBMSs, where some are based on difficult cases to be used in practice; or more relaxed consistency models, which can cause integrity, consistency or even data corruption problems. So, they are not addressed to all types of applications. As it is, this thesis deals with problems related to transaction processing and transaction termination on RDBMS and distributed systems, in environments subject to Byzantine fault. To this end, this thesis presents two major contributions to the transaction level in RDBMSs. The first is a protocol that allows the transaction processing and transaction, despite Byzantine faults in databases replicas  the first in literature that explores the strongest consistency semantics of transactions (e.g. serializability)  , by means of a fully distributed Byzantine fault tolerant database replication protocol. The second investigates the agreement problem related to transaction termination in distributed systems, also in environments subject to Byzantine fault  an unsolved problem in the literature. The Non Blocking Atomic Commitment (NBAC), as it known, aims to ensure a uniform decision for the transaction participants about the operations performed in a distributed database environment, that is, commit or abort them. The contribution to this problem is based on the investigation of practical and necessary conditions, to solve it. So, this thesis introduces the Collaborative Transaction Manager to replace the Transaction Manager, traditionally used as an agent on a NBAC protocol. The solution proposed to solve the NBAC with Byzantine fault is based on a new concept, adopting virtualization technology as a support for the specification of a distributed system architecture which makes the problem feasible. The proposed solutions were compared analytically with solutions found in the literature as well as through experimental tests in order to prove their feasibility.
266

Uma abordagem distribuída para preservação de privacidade na publicação de dados de trajetória / A distributed approach for privacy preservation in the publication of trajectory data

Brito, Felipe Timbó January 2016 (has links)
BRITO, Felipe Timbó. Uma abordagem distribuída para preservação de privacidade na publicação de dados de trajetória. 2016. 66 f. Dissertação (mestrado em computação)- Universidade Federal do Ceará, Fortaleza-CE, 2016. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-03-31T18:54:31Z No. of bitstreams: 1 2016_dis_ftbrito.pdf: 3114981 bytes, checksum: 501bbf667d876e76c74a7911fc7b2c3b (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-04-25T12:34:13Z (GMT) No. of bitstreams: 1 2016_dis_ftbrito.pdf: 3114981 bytes, checksum: 501bbf667d876e76c74a7911fc7b2c3b (MD5) / Made available in DSpace on 2016-04-25T12:34:13Z (GMT). No. of bitstreams: 1 2016_dis_ftbrito.pdf: 3114981 bytes, checksum: 501bbf667d876e76c74a7911fc7b2c3b (MD5) Previous issue date: 2016 / Advancements in mobile computing techniques along with the pervasiveness of location-based services have generated a great amount of trajectory data. These data can be used for various data analysis purposes such as traffic flow analysis, infrastructure planning, understanding of human behavior, etc. However, publishing this amount of trajectory data may lead to serious risks of privacy breach. Quasi-identifiers are trajectory points that can be linked to external information and be used to identify individuals associated with trajectories. Therefore, by analyzing quasi-identifiers, a malicious user may be able to trace anonymous trajectories back to individuals with the aid of location-aware social networking applications, for example. Most existing trajectory data anonymization approaches were proposed for centralized computing environments, so they usually present poor performance to anonymize large trajectory data sets. In this work we propose a distributed and efficient strategy that adopts the $k^m$-anonymity privacy model and uses the scalable MapReduce paradigm, which allows finding quasi-identifiers in larger amount of data. We also present a technique to minimize the loss of information by selecting key locations from the quasi-identifiers to be suppressed. Experimental evaluation results demonstrate that our proposed approach for trajectory data anonymization is more scalable and efficient than existing works in the literature. / Avanços em técnicas de computação móvel aliados à difusão de serviços baseados em localização têm gerado uma grande quantidade de dados de trajetória. Tais dados podem ser utilizados para diversas finalidades, tais como análise de fluxo de tráfego, planejamento de infraestrutura, entendimento do comportamento humano, etc. No entanto, a publicação destes dados pode levar a sérios riscos de violação de privacidade. Semi-identificadores são pontos de trajetória que podem ser combinados com informações externas e utilizados para identificar indivíduos associados à sua trajetória. Por esse motivo, analisando semi-identificadores, um usuário malicioso pode ser capaz de restaurar trajetórias anonimizadas de indivíduos por meio de aplicações de redes sociais baseadas em localização, por exemplo. Muitas das abordagens já existentes envolvendo anonimização de dados foram propostas para ambientes de computação centralizados, assim elas geralmente apresentam um baixo desempenho para anonimizar grandes conjuntos de dados de trajetória. Neste trabalho propomos uma estratégia distribuída e eficiente que adota o modelo de privacidade km-anonimato e utiliza o escalável paradigma MapReduce, o qual permite encontrar semi-identificadores em um grande volume de dados. Nós também apresentamos uma técnica que minimiza a perda de informação selecionando localizações chaves a serem removidas a partir do conjunto de semi-identificadores. Resultados de avaliação experimental demonstram que nossa solução de anonimização é mais escalável e eficiente que trabalhos já existentes na literatura.
267

Mapeamento de qualidade de experiência (QOE) através de qualidade de serviço (QOS) focado em bases de dados distribuídas

Souza, Ramon Hugo de January 2017 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2017. / Made available in DSpace on 2017-08-22T04:23:28Z (GMT). No. of bitstreams: 1 347258.pdf: 3773483 bytes, checksum: 2ab3ff4810fbf2c17a929b1ac3ab553c (MD5) Previous issue date: 2017 / A falta de conceitualização congruente sobre qualidade de serviço (QoS) para bases de dados (BDs) foi o fator que impulsionou o estudo resultante nesta tese. A definição de QoS como uma simples verificação de se um nó corre risco de falha devido ao número de acessos, como faziam, na época do levantamento bibliométrico desta tese, alguns sistemas comerciais, era uma simplificação exagerada para englobar um conceito tão complexo. Outros trabalhos que dizem lidar com estes conceitos também não são exatos, em termos matemáticos, e não possuem definições concretas ou com qualidade passível de utilização ou replicação, o que torna inviável sua aplicação ou mesmo verificação. O foco deste estudo é direcionado à bases de dados distribuídas (BDDs), de maneira que a conceitualização aqui desenvolvida é também compatível, ao menos parcialmente, com modelos não distribuídos de BDs. As novas definições de QoS desenvolvidas são utilizadas para se lidar com o conceito correlacionado de qualidade de experiência (QoE), em uma abordagem em nível de sistema focada em completude de QoS. Mesmo sendo QoE um conceito multidimensional, difícil de ser mensurado, o foco é mantido em uma abordagem passível de mensuramento, de maneira a permitir que sistemas de BDDs possam lidar com autoavaliação. A proposta de autoavaliação surge da necessidade de identificação de problemas passíveis de autocorreção. Tendo-se QoS bem definida, de maneira estatística, pode-se fazer análise de comportamento e tendência comportamental de maneira a se inferir previsão de estados futuros, o que permite o início de processo de correção antes que se alcance estados inesperados, por predição estatística. Sendo o objetivo geral desta tese a definição de métricas de QoS e QoE, com foco em BDDs, lidando com a hipótese de que é possível se definir QoE estatisticamente com base em QoS, para propósitos de nível de sistema. Ambos os conceitos sendo novos para BDDs quando lidando com métricas mensuráveis exatas. E com estes conceitos então definidos, um modelo de recuperação arquitetural é apresentado e testado para demonstração de resultados quando da utilização das métricas definidas para predição comportamental.<br> / Abstract : The hitherto lack of quality of service (QoS) congruent conceptualization to databases (DBs) was the factor that drove the initial development of this thesis. To define QoS as a simple verification that if a node is at risk of failure due to memory over-commitment, as did some commercial systems at the time that was made the bibliometric survey of this thesis, it is an oversimplification to encompass such a complex concept. Other studies that quote to deal with this concept are not accurate and lack concrete definitions or quality allowing its use, making infeasible its application or even verification. Being the focus targeted to distributed databases (DDBs), the developed conceptualization is also compatible, at least partially, with models of non-distributed DBs. These newfound QoS settings are then used to handle the correlated concept of quality of experience (QoE) in a system-level approach, focused on QoS completeness. Being QoE a multidimensional concept, hard to be measured, the focus is kept in an approach liable of measurement, in a way to allow DDBs systems to deal with self-evaluation. The idea of self-evaluation arises from the need of identifying problems subject to self-correction. With QoS statistically well-defined, it is possible to analyse behavior and to indetify tendencies in order to predict future states, allowing early correction before the system reaches unexpected states. Being the general objective of this thesis the definition of metrics of QoS and QoE, focused on DDBs, dealing with the hypothesis that it is possible to define QoE statistically based on QoS, for system level purposes. Both these concepts being new to DDBs when dealing with exact measurable metrics. Once defined these concepts, an architectural recovering model is presented and tested to demonstrate the results when using the metrics defined for behavioral prediction.
268

Construção de um banco de dados de propriedades físicas de galáxias observadas no ultravioleta

Amorim, André Luiz de January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas. Programa de Pós-Graduação em Física / Made available in DSpace on 2012-10-26T09:58:07Z (GMT). No. of bitstreams: 1 300876.pdf: 20868760 bytes, checksum: ff55a2d880a160ecb37e602f112be137 (MD5) / Megalevantamentos de dados astronômicos estão gerando um volume imenso de dados, e com isso surge a necessidade de desenvolver formas de armazenamento e técnicas de mineração de dados. Neste trabalho explora-se o uso de bancos de dados relacionais (RDBMS) para facilitar o acesso e o gerenciamento dos dados gerados por um levantamento de dados de grande porte. Em particular, descreve-se a importação para um banco de dados do catálogo de propriedades físicas de galáxias obtido através do código STARLIGHT. O STARLIGHT é um código de síntese espectral, que tem como entrada uma base de populações estelares simples e espectros de quase um milhão de galáxias do Sloan Digital Sky Survey (SDSS), e gera como saída informações relacionadas ao histórico de formação estelar das galáxias. Baseada inteiramente no espectro óptico, esta análise serve de guia para interpretar dados em outras faixas espectrais para galáxias de diferentes tipos (como as que estão formando estrelas, as galáxias ativas de diferentes classes, as passivas e as aposentadas). O atual data relesse do Galaxy Evolution Explorer (GALEX GR6) inclui a identificação cruzada de seus objetos com os objetos do SDSS. Isso permite correlacionar as informações resultantes do STARLIGHT com dados de fotometria no ultravioleta. Uma amostra de galáxias limitada em redshift é analisada com base no diagrama de classificação WHAN, avaliando as suas propriedades físicas em relação às cores em ultravioleta. / Astronomical mega-surveys are creating a large volume of data, creating new challenges regarding data management and archiving. Data mining techniques are needed to make use of this data deluge. The use of Relational Database Management Systems (RDBMS) for management and data access in large surveys is explored in this study. The starlight catalog is imported into a RDBMS, using CasJobs for data access. These data are produced feeding about 1 000 000 galaxy spectra from Sloan Digital Sky Survey (SDSS) and a set of simple stellar populations to starlight, yielding a catalog of physical properties of those galaxies. This analysis is based entirely on data from the optical spectrum, serving as a benchmark for studies in other wavelengths. The Galaxy Evolution Explorer (GALEX) latest data release (GR6) includes a crossmatch between GALEX and SDSS catalogs. Data from starlight are then matched to GALEX, adding ultraviolet photometry to the starlight catalog. As a case study, a redshift-limited sample is taken from this new catalog, galaxies are classified based on the [N ii]/H! (WHAN) diagram, and the physical properties for each class are analyzed against their ultraviolet colours.
269

Um modelo para compartilhamento de bases de dados distribuídas e heterogêneas

Stedile Junior, Tercilio January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2013-07-16T00:25:26Z (GMT). No. of bitstreams: 1 222069.pdf: 674277 bytes, checksum: 8743cf785918332b4c881ab7e5266494 (MD5) / Este trabalho faz uma avaliação dos recursos disponíveis para viabilizar a interoperabilidade de bases de dados distribuídas e heterogêneas e propõe um modelo alternativo para a solução do problema. O modelo proposto se apresenta como definição metodológica, possível de ser implementado em qualquer ambiente operacional e aplicável em qualquer base de dados. O objetivo deste trabalho é mostrar que as alternativas disponíveis para solucionar esta problemática, quando já implementadas, apresentam um alto grau de complexidade e não atendem adequadamente todas as demandas relacionadas com a interoperabilidade de bases de dados distribuídas e heterogêneas. O trabalho apresenta uma proposta de mediador, modelado em UML (Unified Modeling Language), que permite a interoperabilidade entre bases de dados distribuídas e heterogêneas. Também é apresentada a implementação do modelo, onde são exploradas as características, comportamento e avaliada sua aplicabilidade em diferentes ambientes operacionais e linguagens de programação.
270

Estruturação de dados geoespaciais temporais para apoiar o planejamento e a gestão do território

Oliveira, Mirtz Orige January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Civil, Florianópolis, 2015. / Made available in DSpace on 2016-10-19T13:10:25Z (GMT). No. of bitstreams: 1 338192.pdf: 6435884 bytes, checksum: b5ba91a466bc3a92a72b6087338dcfa9 (MD5) Previous issue date: 2015 / A informação geoespacial assume, hoje em dia, uma importância crescente e fundamental para todos os cidadãos e principalmente para o setor público municipal. Os dados geoespaciais temporais e a sua inserção na estratégia municipal apresentam-se como um fator chave no aumento das vantagens para conservação dos recursos naturais, que se constituem os maiores desafios para o planejamento e gestão do território. A maioria dos municípios brasileiros apresentam dificuldades para oferecer respostas aos conflitos de ocupação antrópica. Entre os principais problemas está a estruturação inadequada das ações para apoiar à tomada de decisão. Esta pesquisa tem como objetivo dotar os municípios de um modelo de estruturação de dados geoespaciais temporais para disponibilizar e compartilhar dados geoespaciais temporais em infraestrutura de dados espaciais municipal, tornando estes municípios nós da Infraestrutura Nacional de Dados Espaciais. Os métodos utilizados partiram da caracterização dos dados cartográficos, fotogramétricos e das ferramentas de apoio ao planejamento e a gestão de um município de destaque de Santa Catarina. Baseados também na exploração in loco e virtual de iniciativas de infraestruturas de dados espaciais da Europa, culminou na elaboração de uma diretriz. Os resultados adquiridos com o resgate histórico de mapas, fotografias aéreas e ortofotos, apresentou a cultura cartográfica de Joinville que ficou materializada nos "Catálogos de dados", tanto vetorial como matricial,remetendo ao inventário de dados capaz de ser suportado pela catalogação e respectiva produção de metadados, sincronizando com os princípios das infraestrutura de dados espaciais.A compreensão da relação entre os dados, o sistema de gestão cadastral e o sistema de informações municipais georreferenciadas, evidenciou as potencialidades e contribuíram como exemplos de aplicação no uso e apresentação de dados geoespaciais, enquanto que as fragilidades expostas indicaram caminhos para o aprimoramento. As experiências referentes as iniciativas em infraestrutura de dados tanto da Câmara municipal de Amadora com do município de Sevilha, mostram que assuas semelhanças fundamentam a promoção do desenvolvimento econômico, a introdução de melhorias na governança e o desenvolvimento sustentável do território abrangido pelos respectivos projetos. A diretriz apresenta um rol de recomendações capazes de se tornar resolução municipal que criou um modelo de estruturação de dados geoespaciais temporais capaz de gerar informações geoespaciais que permitirão originar diversas análises espaciais e modelagem dedados que conduzem a identificação de tendências e padrões, compreensão de fenômenos e prospecção de cenários.Conclui-se que, a pesquisa reuniu dados dispersos e dotou com atributos representativos e padronizados, seguindo a tendência mundial de arranjos, disponibilização e compartilhamento de dados geoespaciais temporais. O modelo apresentado pela pesquisa pode ser extensivo ao planejamento e a gestão do território de qualquer município brasileiro.<br> / Abstratc : The geospatial information takes, nowadays, a growing and fundamentalimportance to all citizens and especially to the municipal public sector. Thetime geospatial data and their inclusion in municipal strategy is presented as akey factor in maximizing the benefits to conservation of natural resources,which constitute the biggest challenges for planning and land management.Most municipalities have difficulties to provide answers to human occupationconflicts. Among the main problems is inadequate structuring of actions tosupport decision making. This research aims to provide municipalities a modelof structuring time geospatial data to provide temporal and share geospatial datainfrastructure of municipal spatial data, making these municipalities nodes ofNational Spatial Data Infrastructure. The methods used left the characterizationof cartographic data, photogrammetric and support tools for planning andmanagement of a leading municipality of Santa Catarina. Based also on-siteand virtual exploration of spatial data infrastructure initiatives in Europe,culminating in the preparation of a guideline. The results obtained with thehistorical review of maps, aerial photos and orthophotos, presented thecartographic culture of Joinville that was embodied in the "data catalogs", bothvector and matrix, referring to the inventory data can be supported bycataloging and their production metadata, synchronizing with the principles ofspatial data infrastructure understanding of the relationship between the data,cadastral management system and the system of geo-referenced localinformation, highlighted the potential and contributed as application examplesin the use and presentation of geospatial data while exposed weaknessesindicated paths for improvement. The experiences related initiatives in datainfrastructure of both the Town Hall Amadora with the city of Sevilla, show thattheir similarities underlie the promotion of economic development,improvements in governance and sustainable development of the territorycovered by the respective projects. The guideline provides a list ofrecommendations capable of becoming municipal resolution creating a datastructure model geospatial temporal able to generate geospatial information thatwill lead to different spatial analysis and modeling of data leading toidentification of trends and patterns, understanding of phenomena andprospecting scene. Concludes to that, the research brought together scattereddata and endowed with representative and standardized attributes, following theglobal trend of arrangements, provision and sharing time geospatial data. Themodel presented by the research can be extended to the planning andmanagement of the territory of any Brazilian city.

Page generated in 0.1002 seconds