• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6983
  • 500
  • 318
  • 283
  • 283
  • 279
  • 194
  • 89
  • 78
  • 78
  • 76
  • 42
  • 6
  • 5
  • 2
  • Tagged with
  • 7638
  • 2223
  • 1814
  • 1759
  • 1290
  • 1076
  • 964
  • 962
  • 960
  • 895
  • 881
  • 870
  • 841
  • 799
  • 792
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Sistema de identificação espacial em ambientes de consumo utilizando mineração de dados

Perizzolo, Cesar B. January 2005 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2013-07-16T01:22:42Z (GMT). No. of bitstreams: 1 223147.pdf: 996474 bytes, checksum: fc573984fac3b0d8ecae75798e4ccd8d (MD5) / A busca pelo conhecimento a partir da Mineração de Dados é um campo de pesquisa que tem crescido muito rapidamente e seu desenvolvimento tem sido dirigido, muitas vezes, em benefício de necessidades práticas. Em um grande volume de dados podem estar muitas informações, tendências e padrões úteis para melhorar os critérios adotados durante o processo da tomada de decisões. Neste trabalho propõe-se a transformação dos dados envolvidos durante uma venda, aliada à conversão dos espaços físicos ocupados pelos produtos em pequenas unidades amostrais, na tentativa de descrever o trajeto percorrido pelo potencial consumidor. O desenvolvimento de processos de análise automática desses grandes volumes de dados é o desafio confiado aos algoritmos da Mineração de Dados. O acúmulo da representação dos prováveis trajetos descritos por um determinado conjunto de consumidores será atribuído a uma matriz dinâmica de múltiplos atributos, que será apresentada através de gráficos de superfície. Conclui-se que as técnicas e ferramentas para a Visualização de Dados estimulam naturalmente a percepção e a associação de novos padrões e podem melhorar, em muito, o processo de Mineração de Dados.
102

Uma arquitetura de controle de acesso dinâmico baseado em risco para computação em nuvem

Santos, Daniel Ricardo dos January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013 / Made available in DSpace on 2013-12-05T23:48:06Z (GMT). No. of bitstreams: 1 320606.pdf: 910565 bytes, checksum: e8438d7e136f3e94d93db162412b5d65 (MD5) Previous issue date: 2013 / Computação em nuvem é um modelo para computação distribuída que ainda enfrenta problemas. Novas ideias surgem para aproveitar ainda mais suas características e entre os desafios de pesquisa encontrados na computação em nuvem destaca-se a gerência de identidades e controle de acesso. Os principais problemas da aplicação de controle de acesso em computação em nuvem são a necessária flexibilidade e escalabilidade para suportar um grande número de usuários e recursos em um ambiente dinâmico e heterogêneo, com as necessidades de colaboração e compartilhamento de recursos e informações. Esse trabalho de pesquisa propõe o uso de controle de acesso dinâmico baseado em risco para computação em nuvem. A proposta é apresentada na forma de um modelo para controle de acesso, baseado em uma extensão do padrão XACML com três novos componentes principais: o Risk Engine, os Risk Quantification Web Services e as políticas de risco. As políticas de risco apresentam um método para descrever métricas de risco e sua quantificação, que pode ser através de funções locais ou remotas. O uso de políticas de risco permite que usuários e provedores de serviços de nuvens definam como desejam tratar o controle de acesso baseado em risco para seus recursos, utilizando métodos de quantificação e agregação de risco apresentados em trabalhos relacionados. O modelo atinge a decisão de acesso baseado em uma combinação de decisões XACML e análise de risco. Uma especificação das políticas de risco utilizando XML é apresentada e um estudo de caso utilizando federações de nuvens é descrito. Um protótipo do modelo é implementado, mostrando que tem expressividade suficiente para descrever os modelos de trabalhos relacionados. Nos resultados experimentais o protótipo atinge decisões de acesso com o uso de políticas de trabalhos relacionados com um tempo entre 2 e 6 milissegundos. Uma discussão sobre os aspectos de segurança do modelo também é apresentada <br> / Abstract: Cloud computing is a distributed computing model that still faces problems. New ideas emerge to take advantage of its features and among the research challenges found in cloud computing, we can highlight Identity and Access Management. The main problems of the application of access control in the cloud are the necessary ?exibility and scalability to support a large number of users and resources in a dynamic and heterogeneous environment, with collaboration and information sharing needs. This research work proposes the use of risk-based dynamic access control for cloud computing. The proposal is presented as an access control model based on an extension of the XACML standard with three new main components: the Risk Engine, the Risk Quanti?cation Web Services and the Risk Policies. The risk policies present a method to describe risk metrics and their quanti?cation, using local or remote functions. The use of risk policies allows users and cloud service providers to de?ne how they wish to handle risk-based access control for their resources, using quanti?cation and aggregation methods presented in related works. The model reaches the access decision based on a combination of XACML decisions and risk analysis. A speci?cation of the risk policies using XML is presented and a case study using cloud federations isdescribed. A prototype of the model is implemented, showing it has enough expressivity to describe the models of related works. In the experimental results, the prototype reaches access decisions using policies based on related works with a time between 2 and 6 milliseconds. A discussion on the security aspects of the model is also presented.
103

Interpolação espacial

Fazio, Vinícius Sousa January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós -Graduação em Computação, Florianópolis, 2013. / Made available in DSpace on 2013-12-05T23:51:14Z (GMT). No. of bitstreams: 1 320781.pdf: 2328199 bytes, checksum: f39ebb6b778426eb60124f0955639b02 (MD5) Previous issue date: 2013 / Entre diversos métodos de interpolação espacial, dois dos mais populares sãoa Krigagem e as Redes de Função de Base Radial (Redes RBF). Este trabalhodesenvolve uma comparação analítica entre os métodos e demonstra matematicamenteque ambos são equivalentes e produzem resultados idênticosquando configurados apropriadamente. É demonstrado que os dois métodospossuem uma estrutura semelhante e, como consequência, características daKrigagem, tais como variância da interpolação, também podem ser implementadasem Redes RBF, desde que sejam respeitadas as restrições exigidaspor cada método. Apesar da equivalência matemática, é concluído pela complexidadecomputacional dos dois algoritmos que as Redes RBF são bemmais rápidas que a Krigagem porque as Redes RBF interpolam de uma formaem que os pesos não precisam ser recalculados para cada ponto interpolado,necessitando de menos processamento. Foram feitos experimentos para mostrarna prática os resultados teóricos obtidos. Alguns softwares comerciais egratuitos que implementam a Krigagem foram testados a fim de verificar sesuas implementações possuem a complexidade computacional do algoritmooriginal ou se otimizações foram implementadas. <br> / Abstract : Between several spatial interpolation methods, two of the most popular are Kriging and Radial Basis Function Networks (RBF Network). This study develops an analytical comparison between both methods and shows mathematically that they are equivalent if properly configured. It is shown that both methods have a similar structure and, as consequence, features of Kriging, such as interpolation variance, can be implemented in RBF Networks, considering the constraints demanded by each method. Complexity was calculated for both methods to show the relative speed of RBF Networks. It is shown that both methods share a common structure and, as a consequence, all improvements in one method can be implemented in RBF Networks. Besides the mathematical equivalence, it is concluded by the computational complexity of both algorithms that RBF Networks are faster than Kriging because RBF Networks interpolates in a way that the weights do not need to be recalculated for each interpolated point, saving processing time. Experiments were made to show in practice the theoretical results obtained. Some free and commercial softwares that implement Kriging were tested to verify if their implementations have the same complexity of the original algorithm or if they implemented optimizations.
104

DeepEC

Souza, Augusto Ferreira de January 2013 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2013. / Made available in DSpace on 2014-08-06T17:11:02Z (GMT). No. of bitstreams: 1 323922.pdf: 1684516 bytes, checksum: 286dc1d7d327ccbebe91891a7d64681d (MD5) Previous issue date: 2013 / Esta dissertação apresenta uma solução chamada DeepEC (DeepWeb Extraction and Cataloguing Process) para realizar a extração e catalogação de dados relevantes em bancos de dados presentes na Deep Web, também denominados de bancos de dados escondidos. Essas informações são extraídas a partir de um conjunto de páginas HTML geradas a partir de consultas definidas sobre formulários Web. A intenção é adquirir conhecimento sobre esses bancos de dados e, consequentemente, permitir buscas estruturadas sobre esse conteúdo escondido. Experimentos comprovaram a eficácia da abordagem proposta. Comparado com trabalhos relacionados, as contribuições desta dissertação são a realização conjunta e sequencial de um processo de extração e catalogação dos dados de bancos de dados escondidos, um processo de extração automático com suporte de uma base de conhecimento e um processo de catalogação que gera registros estruturados e é capaz de realizar a detecção de atributos cujos valores não estão presentes nos dados extraídos. <br> / Abstract : This work presents an approach called DeepEC (Deep Web Extraction and Cataloguing Process) that performs the extraction and cataloging of relevant data presented in Deep Web databases, also called hidden databases. This information is extracted from a set of HTML pages generated by queries posed on web forms. The intention is to obtain knowledge about these databases and thus enable structured queries over this hidden content. Experiments have shown the effectiveness of the proposed approach. Compared to related work, the contributions of this paper are the simultaneous process of data extraction and cataloging of hidden databases, an automatic extraction process with a knowledge base support, and a cataloging process that generates structured records and it is able to detect attribute values that are missing in the extracted data.
105

Criptografia temporal

Pereira, Fernando Carlos January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T04:39:21Z (GMT). No. of bitstreams: 1 194511.pdf: 1016183 bytes, checksum: 9a258d77b4eae4a923b5382154f88ec7 (MD5)
106

Programação orientada a comportamentos baseada no modelo de atores

Schütz, Fernando January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T05:14:05Z (GMT). No. of bitstreams: 1 203223.pdf: 914870 bytes, checksum: f33266c3a2a68e8720e7e4f97695de42 (MD5) / A programação de computadores é um dos principais desafios para iniciantes em computação que, normalmente utilizam linguagens imperativas na fase de aprendizagem, às quais inserem uma forma não-usual, do ponto de vista natural, de descrever situações. O presente trabalho vem de encontro a esta dificuldade, pois propõe uma sintaxe mais antropomórfica, baseada em comportamentos de objetos e no Modelo de Atores, elaborada a partir de análises em jogos do tipo video game, onde pode-se descrever os comportamentos dos objetos que compunham tais jogos, bem como interações entre os objetos e também as condições que regem as ações que cada ator desempenha no ambiente. O presente trabalho baseia-se na idéias evidenciadas no Modelo de Atores, utilizado em disciplinas de iniciação à programação de computadores, e faz um apanhado geral das principais linguagens de programação concorrentes baseadas no modelo de atores. Há também a utilização da programação orientada a objetos e da abordagem UML (Unified Modeling Process).
107

Um estudo das estratégias de replicação e reconciliação de banco de dados móveis em um ambiente wireless

Cunha, Daniel Pezzi da January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T05:25:40Z (GMT). No. of bitstreams: 1 200154.pdf: 1314006 bytes, checksum: bc705eb14b809f3262c13ce96037896a (MD5) / Neste trabalho é apresentada uma análise de diferentes estratégias de replicação e reconciliação de dados baseando-se em um estudo de caso experimental, considerando dois ambientes operacionais convencionais sob o paradigma da comunicação wireless. Os resultados indicam soluções para o desenvolvimento de sistemas de banco de dados móveis que operam em condições de comunicação descontinuada.
108

Modelagem e análise de restrições de tempo real no escalonamento em síntese de alto nível

Tolentino, Carlos Henrique Corrêa January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T08:46:56Z (GMT). No. of bitstreams: 1 202752.pdf: 768214 bytes, checksum: c8a8db65a7bdaaa5e098882707a683d9 (MD5) / Este trabalho apresenta a resolução de um problema clássico da Síntese de Alto Nível: o escalonamento sob restrições de recursos e de tempo. Para tanto utiliza uma abordagem orientada à exploração automática de soluções alternativas. O problema consiste em escalonar as operações de um algoritmo buscando uma melhor utilização dos recursos físicos e satisfazendo uma série de restrições de recursos, de precedência e de tempo. Os resultados experimentais mostram o sucesso das técnicas propostas em eliminar soluções de baixa qualidade do espaço de busca e melhorar a qualidade média do espaço de soluções. Em adição, na maioria dos testes realizados houve uma redução do tempo de busca por soluções de boa qualidade.
109

Estudo comparativo entre algoritmos de análise de agrupamentos em data mining

Prass, Fernando Sarturi January 2004 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-21T17:23:51Z (GMT). No. of bitstreams: 1 210022.pdf: 600027 bytes, checksum: 593cdf81a2de56eda1d99061c8a08743 (MD5) / O objetivo é apresentar um estudo comparativo dos principais modelos de algoritmos de Análise de Agrupamento (Cluster Analysis) existentes na literatura e implementados em softwares, visando o seu uso no processo de descoberta de conhecimentos em grandes bancos de dados (Knowledge Discovery in Databases - KDD). Os algoritmos de Agrupamento são diferenciados de acordo com o seu método de formação (Hierárquico, Partição, Baseado em Modelo, Baseado em Grade e Baseado em Densidade) e também pela medida de distância que expressa a similaridade ou dissimilaridade entre os objetos. Mostram-se também critérios de mensuração para que se possam avaliar quais os melhores algoritmos para grandes bases de dados. Os algoritmos foram avaliados com dados reais e simulados utilizando a Linguagem R, que apontou o algoritmo k-medoid como o mais preciso e rápido. O trabalho mostra que o uso de Análise de Agrupamentos (AA) pode ser feito através de software gratuito e com máquina de baixo custo, mas para se obtenham bons resultados são necessários sólidos conhecimentos teóricos sobre AA.
110

Identificação e diagnósttico de erros de modelagem conceitual cometidos por aprendizes

Pasqualli, Roberta January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T17:13:33Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:32:24Z : No. of bitstreams: 1 184879.pdf: 13976355 bytes, checksum: 956e09075ce1eecda2978a622f085983 (MD5) / Este trabalho apresenta uma abordagem para a identificação e o tratamento dos erros realizados por aprendizes no desenvolvimento de modelagem conceitual. Para fundamentar teoricamente este trabalho foi realizado um estudo sobre Orientação a Objetos, UML (Unified Language Modeling) e, principalmente sobre quais são os erros que mais comumente são observados quando os aprendizes desenvolvem seus próprios modelos conceituais. Além de procurar por erros comuns relatados na bibliografia, procurou-se analisar trabalhos de alunos e catalogar os erros observados, a fim de verificar se é possível automatizar a detecção dos mesmos. Esse tema foi escolhido, pois a partir dessa identificação e catalogação de erros, abre-se a possibilidade de aprimoramento das ferramentas CASE existentes e até mesmo o desenvolvimento de novas ferramentas que sugiram meios de auxiliar o aluno no momento de desenvolvimento da modelagem conceitual.

Page generated in 0.048 seconds