• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Sistema de informatização da avaliação física e técnica no futebol

Lima, Antonio Cesar Matias de January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Ciência da Computação / Made available in DSpace on 2012-10-19T14:58:58Z (GMT). No. of bitstreams: 1 209167.pdf: 336171 bytes, checksum: cd7f2c61579da57540f060938a6fe209 (MD5) / The present study is placed in some of search#s lines denominated knowledge#s system developed at Science#s computation Master#s Program of Santa Catarina Federal University. The objectives were to diagnose and to explain the process of evaluate physical and technical in the soccer, and identify general references that make possible the critical reflection to the construction of a computing system of the evaluate physical and technical in the soccer. The research by kind exploration descriptive of qualified and quantity analysis was developed from evidences of
322

Segurança no desenvolvimento de sistemas de comércio eletrônico

Pegoraro, Raquel Aparecida January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T15:11:46Z (GMT). No. of bitstreams: 1 187153.pdf: 1198602 bytes, checksum: 7e7791f3d4373e41ddccdfe92146415e (MD5) / Atualmente, o comércio eletrônico está emergindo no mercado e, como conseqüência, surge uma grande oportunidade de novos e inovadores negócios. Nessa nova forma de negociação, surgem várias questões que necessitam ser resolvidas para que o comércio eletrônico possibilite um mercado global. Um dos pontos em questão nos últimos anos se refere a segurança. Nesta dissertação é fornecida uma avaliação sobre os assuntos de segurança que envolve o comércio eletrônico e suas aplicações. São discutidos os processos e requisitos de segurança em aplicações de comércio eletrônico, os quais geralmente vão além das exigências tradicionais de segurança de redes. Apresentada também uma visão geral dos projetos de pesquisa que tem sido feitos sobre segurança no comércio eletrônico. É proposto um programa de trabalho de pesquisa para segurança em aplicações de comércio eletrônico e uma metodologia para a agregação de segurança nos sistemas de comércio eletrônico
323

Monitoramento, aquisição e controle de sinais elétricos, via web, utilizando microcontroladores

Silva, Juarez Bento da January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-19T15:12:54Z (GMT). No. of bitstreams: 1 190481.pdf: 2721570 bytes, checksum: 2a07c5b14d82d277d40cb30e1517a504 (MD5)
324

Precisão e repetibilidade de experimentos no planetlab

Costa, Lauro Luis January 2014 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Co-orientador : Prof. Dr. Luis C. E. Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 02/09/2014 / Inclui referências / Resumo: Desenvolvida como uma rede acadêmica, a Internet cresceu e evoluiu rapidamente. Hoje, 40 anos mais tarde, se tornou uma ampla plataforma de informação, interação social e comércio. Os usuários e as aplicações da Internet atualmente demandam características de desempenho, segurança, escalabilidade e mobilidade que não foram previstas no momento de sua criação. Testbeds de larga escala, como o PlanetLab, são peças chave para o desenvolvimento e avaliação de novas aplicações e arquiteturas que atendam a estas demandas. O PlanetLab é um testbed de escala planetária, composto por mais de mil nodos espalhados ao redor do mundo, que oferece aos seus usuários um ambiente real para a execução de experimentos. No entanto, a execução de experimentos no PlanetLab é uma atividade que pode se tornar muito complexa, especialmente por envolver uma grande quantidade de nodos e a existência de instabilidades no desempenho nos nodos e na rede que os conecta, prejudicando a precisão e repetibilidade dos resultados obtidos. Por estes motivos, existem diversas ferramentas para gerenciamento de experimentos e descoberta de recursos no PlanetLab. Neste trabalho, apresentamos uma avaliação experimental do impacto da utilização de subconjuntos de nodos selecionados por uma ferramenta de monitoramento da conectividade entre os nodos na precisão e repetibilidade dos resultados obtidos. São realizados experimentos utilizando aplicações com diferentes perfis de utilização de recursos e os resultados obtidos por diferentes subconjuntos de nodos são comparados. A estratégia de seleção de nodos estudada reduziu a variação dos resultados obtidos em até 27% e obteve média de execução até 26% mais baixa que uma das estratégias alternativas. Pode-se concluir que a utilização de subconjuntos de nodos selecionados por esta ferramenta contribui para a precisão, repetibilidade e reprodutibilidade de experimentos realizados no PlanetLab. Este trabalho também apresenta uma proposta de integração da ferramenta de seleção de nodos ao portal de gerenciamento de experimentos PlanetMon, com o objetivo de permitir que usuários do PlanetLab obtenham acesso a ferramenta de seleção de modo conveniente e transparente enquanto gerenciam seus experimentos. / Abstract: The Internet was originally developed as an academic network more than four decades ago. Today, it has established itself as a global platform for human communications, allowing information exchange, social interaction, and e-commerce. Current Internet users and applications require high levels of performance, security, scalability and mobility. These characteristics were not predicted at the time of its creation. Large-scale testbeds like PlanetLab have been developed to allow the design and realistic evaluation of applications and architectures to supply the new Internet demands. PlanetLab is a planetary scale testbed, consisting of more than one thousand nodes spread around the globe, offering its users a realistic environment for experiment execution. However, experiment execution on PlanetLab can become a complex activity, especially because it involves configuring a large number of nodes, and because the environment is highly unstable, due to performance variations of both nodes and their network connections. These instabilities affect the precision and repeatability of the results obtained. There are several tools for experiment management and resource discovery on PlanetLab. In this work, we present an experimental evaluation of the impact of using subsets of nodes selected with different strategies on the precision and repeatability of the results obtained. Experiments using applications with different resource requirements were carried out and are reported. Results show that the selection strategy based on k-cores reduces the variation on the results obtained by up to 27% and resulted on an average execution time up to 26% faster compared to other alternatives. The utilization of subsets of nodes selected with this strategy can thus contribute to the precision, repeatability and reproducibility of experiments executed on PlanetLab. This work also presents the integration of the node selection strategy to the experiment management framework PlanetMon. This integration is intended to allow PlanetLab users to have access to the node selection tool in a convenient and transparent way for managing their experiments.
325

Provisionamento de recursos computacionais baseado em redes de petri para bancos de dados orientados a leitura

Dominico, Simone January 2016 (has links)
Orientador : Prof. Eduardo Cunha de Almeida / Orientador : Dr. Jorge Augusto Meira / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 19/04/2016 / Inclui referências : f. 53-57 / Resumo: O provisionamento de recursos é uma técnica utilizada para alocar recursos computa- cionais em ambientes de alto desempenho. Tais ambientes estão sujeitos a processar diferentes padrões de carga de trabalho (e.g., e-commerce), incluindo picos de carga durante datas especí- ficas, como por exemplo, black friday, natal e páscoa. Através do provisionamento é possível adicionar e remover recursos conforme a necessidade apresentada pelo sistema. Neste trabalho nos concentramos no provisionamento de núcleos de CPU para processamento de consultas em bancos de dados. Nós propomos um modelo de alto nível para sincronização dinâmica de múltiplos núcleos para processamento de consultas. Nosso modelo chamado de PrT-PRO é ba- seado em um provisionamento dinâmico reativo utilizando Redes de Petri Predicado/Transição, que atua por meio de regra-condição-ação no topo do monitoramento de desempenho. Através da PrT-PRO, busca-se obter um valor ótimo de múltiplos núcleos que atenda a demanda das consultas com objetivo de melhorar seu desempenho. Nosso modelo foi validado através de experimentos no popular sistema gerenciador de banco de dados (SGBD) PostgreSQL. Os re- sultados demonstram que ao encontrar o valor ótimo de múltiplos núcleos utilizando a PrT-PRO diminuímos substancialmente os misses de cache de CPU quando comparado com a execução utilizando todos os recursos disponíveis no hardware. A melhora de desempenho no processa- mento de consultas fica evidente, pois ao diminuir os misses de CPU diminui também o tempo de execução de uma determinada carga de trabalho. Assim, podemos afirmar que a PrT-PRO apresenta um melhor aproveitamento de CPU comparado com o atual modelo interno do SGBD PostgreSQL. Utilizando a PrT-PRO o SGBD PostgreSQL foi capaz de sincronizar o acesso aos múltiplos núcleos para acomodar leituras simultâneas com tipos mistos de acesso a CPU. Palavras-chave: Provisionamento de Recursos Computacionais, SGBD, Redes de Petri. / Abstract: Resource provisioning is a technique to efficiently allocate computational resources on-demand in high-performance environments. The goal is to provision resources upon every running con- dition, even if the environment is challenged by different workload patterns (e.g., e-commerce), including peak loads during specific dates, for example, black friday, and christmas. In this dissertation, we focus on resource provisioning of multi-core CPUs for query processing. Our goal is to present a multi-core harnessing model to reduce response time for query processing in relational database systems. We present a high-level model for dynamic synchronization of multi-core in query processing. Our model called PrT-PRO is based on reactive dynamic provi- sioning using Petri Nets Predicate/Transition, which operates through rule-condition-action on top of the performance monitoring. The PrT-PRO seeks an optimal number of CPU cores to quickly respond to on-line needs of query processing. We validate the PrT-PRO on top of the popular open-source DBMS PostgreSQL. The results show that the optimal number of cores given by PrT-PRO substantially reduces the cache misses of CPU when compared with results using all available resources. Moreover, we show that decreasing the cache misses of CPU, it also decreases the response time to execute a particular workload. Thus, we can affirm that the PrT-PRO features a better harnessing of CPU compared with the current internal model of PostgreSQL. Keywords: Computing Resouce provisioning, DBMS, Petri nets.
326

Análise de uma métrica alternativa para predição de laços sociais em grafos lei de potência

Danielewicz, Georgea January 2016 (has links)
Orientador : André Luís Vignatti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 28/07/2016 / Inclui referências : f. 41-42 / Área de concentração: Ciência da computação / Resumo: As redes sociais são uma maneira de descrever as interações sociais em um grupo ou comunidade. Podem ser modeladas por meio de grafos, em que um vértice corresponde a uma pessoa, e uma aresta representa alguma forma de associação entre duas pessoas [Hasan e Zaki, 2011]. As redes sociais são objetos altamente dinâmicos, elas crescem e mudam rapidamente ao longo do tempo devido à adição e exclusão de vértices e arestas. Compreender os mecanismos pelos quais estas estruturas sociais evoluem é uma questão fundamental, ainda não bem compreendida, e que constitui a motivação para este projeto. Mais especificamente, a pesquisa se dedica ao problema da predição de laços sociais: dado um snapshot de uma rede social em tempo t0, busca-se prever com precisão as arestas que serão adicionados à rede em um determinado momento t futuro, tal que t > t0 [Liben-Nowell, 2005]. As soluções estudadas se dividem em dois grupos principais: predição de laço supervisionada e a predição de laço não supervisionada. A predição de laço supervisionada envolve técnicas de aprendizado de máquina como a extração de características e algoritmos de classificação [Zhang e Yu, 2011]. A predição não supervisionada busca de calcular métricas baseadas nas características topológicas do grafo [Hasan e Zaki, 2011]. Com base no segundo paradigma, e a partir do estudo de modelos de geração de grafos, é proposta como contribuição uma métrica para calcular a probabilidade de formação de arestas entre dois vértices específica para grafos com distribuição de grau Lei de Potência. Palavras-chave: redes sociais, predição de laço, modelo de geração de grafo. / Abstract: Social networks are a popular way to model the interactions among people in a group or community. They can be visualized as graphs, where a vertex corresponds to a person in some group and an edge represents some form of association between the corresponding persons [Hasan e Zaki, 2011]. Social networks are very dynamic, since new edges and vertices are added to the graph over time. Understanding the dynamics that drive the evolution of social networks is a complex problem, yet to be fully understood, and which comprises the motivation of this project. A basic computational problem underlying social-network evolution is the linkprediction problem: given a snapshot of a social network at time t, we seek to accurately predict the edges that will be added to the network during the interval from time t to a given future time t0, considering t > t0 [Liben-Nowell, 2005]. Most works in this field branch into two main groups: supervised and unsupervised link prediction. Supervised link prediction models have two important components: feature extraction and classification [Zhang e Yu, 2011]. Unsupervised link prediction calculates metrics based on features which are extracted from the graph topology, some works develop a graph evolution model [Hasan e Zaki, 2011]. Based on unsupervised link prediction concepts, mainly on graph generation models, we propose a link prediction metric, which is specific to power-law graphs. Keywords: social networks, link prediction, graph generation model.
327

Maximização de influência em grafos lei de potência

Melo, Renato Silva de January 2016 (has links)
Orientador : Prof. Dr. Renato José da Silva Carmo / Coorientador : Prof. Dr. André Luís Vignatti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 20/05/2016 / Inclui referências : f. 63-65 / Resumo: O problema de maximização de influência em redes sociais, procura pelos vértices que permitam espalhar uma informação para o maior número possível de membros da rede.Um algoritmo guloso proposto por Kempe et al. [19], que escolhe iterativamente os vértices de maior influência, encontra um conjunto resposta cujo alcance da influência é pelo menos1 ? 1/e do ótimo. Mas esta abordagem possui alguns agravantes que comprometem o tempo de execução do algoritmo. Nesta dissertação propomos uma melhoria para o algoritmo guloso de Kempe et al. [19] com foco no tempo de execução deste sobre grafos de lei de potência. A melhoria consiste em fazer uma seleção prévia dos vértices mais promissores. Verificamos por meio de análise experimental que esta pré-seleção reduz expressivamente o tempo de execução, além de manter a qualidade da solução compatível com a do algoritmo guloso de Kempe et al. [19]. A otimização por pré-seleção utiliza propriedades presentes em grafos de lei de potência, explorando a relação de influência social com a distribuição de graus. Esta abordagem reduz em até 58%o tempo de execução do algoritmo Celf [22], que é uma das otimizações mais conhecidas do procedimento deKempe et al. [19]. / Abstract: The influence maximization problem in social networks, asks for the nodes that allow tospread a information for the highest number of members. A greedy algorithm proposed byKempe et al. [19], that choose iteratively the members of greatest influence, find a solutionset whose the reach of influence is at least 1?1/e of the optimum. But some aggravatinghave affecting the runtime of this approach. In this work we propose improvements forthe algorithm of Kempe et al. [19], with focus on the runtime in power law graphs. Theimprovement consists in make a previous selection of most promising nodes. We haveverified by experimental analysis that this pre selection reduces significantly the runtime,in addition maintaining a quality compatible with the greedy algorithm of Kempe etal. [19]. The optimization by pre selection uses properties present in power law graphs,by exploring the relationship between social influence and the degree distribution. Besides,this approach reduces the runtime of Celf [22] algorithm by up to 58%, which is one ofthe most known optimizations of the algorithm of Kempe et al. [19].
328

Modelo de calibração para sistemas de odometria robótica

Tomasi Junior, Darci Luiz January 2016 (has links)
Orientador : Prof. Dr. Eduardo Todt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 30/11/2016 / Inclui referências : f. 39 / Resumo: Para realizar a navegação de uma base robótica em um ambiente desconhecido, alguns mecanismos para detectar o posicionamento e a localização devem ser fornecidos a base. Quando a base está em processo de navegação e faz uso desses mecanismos, erros provenientes do ambiente e da base robótica são inseridos no sistema, resultando em um posicionamento errôneo. Uma forma de reduzir a amplitude dos erros é através de um modelo de calibração eficiente, capaz de identificar e estimar valores aceitáveis para as principais fontes de incerteza nos cálculos de odometria. Este trabalho de pesquisa apresenta um novo modelo de calibração comparável aos métodos clássicos conhecidos, mas que diferencia-se pela forma com que a calibração é realizada, sendo essa a principal limitação para conseguir incrementar os resultados com o método proposto. Ao fim do procedimento padrão proposto ser realizado, os resultados são equivalentes aos dos métodos clássicos conhecidos. Palavras-chave: UMBmark, Odometria, Calibração. / Abstract: In order to navigate a robotic base in an unfamiliar environment, some mechanism to detect positioning and location must be provided. When the robot is in the process of navigation and makes use of this mechanism, errors from the environment and the robotic base are inserted into the system, resulting in an erroneous positioning. One way to reduce the error amplitude is through an efficient calibration model, capable of identifying and estimating acceptable values for the main sources of uncertainty in odometry calculations. This work presents a new calibration model comparable to the classical methods known, but it is distinguished by the way in which the calibration is performed, being this the main limitation to be able to increase the results with the proposed method. At the end of the proposed standard procedure, the results are equivalent to those of the known classical methods. Keywords: UMBmark, Odometry, Calibration.
329

Caracterização de personagens críveis em jogos eletrônicos

Hamilko, Anderson Vermonde January 2014 (has links)
Orientador : Prof. Dr. Fabiano Siva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 09/09/2014 / Inclui referências / Resumo: Neste trabalho nós estudamos as características comportamentais de personagens autônomos em jogos eletrônicos e sua influência na credibilidade e na imersão do jogador na narrativa. Devido a característica singular da interatividade, há muita discussão no cenário de jogos com relação a inteligência artificial. No entanto essas discussões quase sempre estão focadas no desenvolvimento e implementação de soluções. Nosso trabalho aborda inteligência artificial de um ponto de vista menos convencional, sem tratar diretamente da implementação, mas sim focando na percepção. Isso significa que estamos mais interessados na percepção de inteligência por parte do jogador do que na sua implementação de fato. Nesse trabalho, procuramos trazer a discussão de credibilidade de personagens, já bastante discutida em outras mídias, para o âmbito dos jogos eletrônicos. Com foco específico no comportamento dos personagens, procuramos compreender que diferentes características influenciam a percepção do jogador. Com objetivo de ampliar a discussão com relação a credibilidade de personagens no âmbito de jogos eletrônicos, esse trabalho propõe estabelecer e validar conceitos que possam ser usados para construção de personagens críveis. Através de pesquisa empírica e do estudo de trabalhos existentes em jogos e outras mídias, temos como objetivo desenvolver técnicas que possam ser usadas para explicar e guiar a criação de personagens críveis, capazes de contribuir com a imersão do jogador. Palavras-chave: Credibilidade, Personagens, Jogos Eletrônicos / Abstract: In this work we study the behavior of autonomous characters in video games and its influence on the player believability and narrative immersion. Due to the unique feature of interactivity, there’s been a lot of research regarding artificial intelligence in games. However this researches tend to focus on development and implementation of solutions. Our work approaches artificial intelligence from an unconventional point of view. We don’t deal directly with the implementation, but rather focus on player perception. This means we’re more interested in the perceived intelligence rather than its actual implementation. In this paper we bring the discussion of characters believability, which has been widely discussed in various types of media, to the topic of games. Specifically focused on characters behavior. We try to comprehend the different characteristics responsible for influencing players perception. Aiming to expand the dialog regarding character believability in video games, this paper attempts to establish concepts for creating believable characters. Through empirical research and literature review of games and other media, we want to develop techniques to understand and guide the development of believable characters that can contribute to the player's immersion. Keywords: Believability, Characters, Games
330

Estratégia de web cache utilizando redes P2P de clientes sobre WebRTC

Paula Filho, Carlos Botelho de January 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-10T17:17:48Z No. of bitstreams: 1 2016_CarlosBotelhodePaulaFilho.pdf: 3959000 bytes, checksum: cc882cfd3824c33e2ae1cd9d7dd0d0fa (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-04-04T21:04:09Z (GMT) No. of bitstreams: 1 2016_CarlosBotelhodePaulaFilho.pdf: 3959000 bytes, checksum: cc882cfd3824c33e2ae1cd9d7dd0d0fa (MD5) / Made available in DSpace on 2017-04-04T21:04:09Z (GMT). No. of bitstreams: 1 2016_CarlosBotelhodePaulaFilho.pdf: 3959000 bytes, checksum: cc882cfd3824c33e2ae1cd9d7dd0d0fa (MD5) / Cache na internet e um mecanismo chave para o aumento de performance e estabilidade de sites em momentos de grande número de acessos. Entretanto a maioria das estratégias de cache não levam em conta o poder do cache localizado entre nós clien- tes. Novas tecnologias desenvolvidas para a nova versão da especificação do HTML, o HTML5 possibilitaram que nós se conectem e interajam entre si, possibilitando a troca de dados sem a instalação de plugins ou addons de navegadores. Este trabalho descreve uma estratégia de cache que cria uma rede P2P de clientes agindo como servidores de proxy cache assim que os mesmos fizerem a primeira requisição ao servidor, distribuindo os dados potencialmente entre todos os visitantes do site. Aumentando a disponibilidade do site em picos de acesso, e minimizando drasticamente os custos de infraestrutura, e como os nós irão prover conteúdo dentro das redes dos provedores de internet, a estratégia pode potencialmente aumentar a velocidade de abertura de página ou de conteúdos de mídia. Assim como uma diminuição no custo de transferência de dados nos provedores de internet. / Web caching has been a key player in increasing performance and website stability in times of heavy usage. However most caching strategies do not take into account the power of localized caching between client nodes. New technologies developed for the new version of HTML specification, HTML5 have enabled nodes to connect and interact with each other, enabling them to share data without the addition of browser plugins or add-ons. This work describes a caching strategy that creates a P2P network of clients that act as proxy cache servers as soon as they issue a request to the server, distributing the caching data potentially across all web site visitors. Increasing the web site availability in high peaks, minimizing drastically the costs of infrastructure and, since the nodes will provide content to localized clients within their ISP networks, the strategy will potentially result in a faster overall speed in page loads, or in media content loading. As well as decreasing costs for ISPs due to the minimization of data exchange outside of the ISP network.

Page generated in 0.092 seconds