• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2072
  • 111
  • 100
  • 100
  • 99
  • 97
  • 51
  • 9
  • 3
  • 1
  • Tagged with
  • 2144
  • 2144
  • 682
  • 528
  • 528
  • 482
  • 433
  • 353
  • 342
  • 253
  • 248
  • 242
  • 241
  • 191
  • 180
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

URF (Framework Unificado de Robótica) : proposta de interface para sistemas distribuídos

Bombardelli, Felipe Gustavo January 2017 (has links)
Orientador : Eduardo Todt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 30/08/2017 / Inclui referências : p. 75-76 / Resumo: Em robótica, sistemas distribuídos têm sido utilizados para organizar os projetos de software em módulos, facilitando o desenvolvimento, compartilhamento, manutenção e testes. No entanto, esta modularização traz o ônus da comunicação entre os módulos, que deve ser padronizada e sincronizada, motivando o desenvolvimento de diversos frameworks com o objetivo de superar estas dificuldades. Ainda, o código dos módulos tem diversas linhas de overhead referentes ao framework utilizado, o que limita compartilhamento de seus módulos entre diferentes frameworks. Neste trabalho é proposto um framework que busca unificar a interface de acesso aos dados, o que permite encapsular diferentes frameworks como recursos. Como resultado, o framework proposto apresenta uma grande melhora na transparência de acesso aos dados, em relação aos frameworks existentes, já que diferentes estruturas podem ser acessadas pela mesma interface, possibilitando a criação de uma árvore de recursos bastante flexível. Palavras-chave: Sistemas distribuídos, frameworks de robótica, interfaces. / Abstract: On robotics, distributed systems have been used to organize the software projects in modules, facilitating the development, sharing, maintenance and testing. However, this modularization brings an increased complexity of communication between the modules, which must be synchronized and standardized, motivating the development of various efforts to overcome these difficulties. In addition, the module code has several overhead lines over the framework used, which limits sharing of its modules between different frameworks. This work proposes a framework that aims to unify the data access interface, which allows to encapsulate different frameworks in resources. As a result, the proposed framework presents a great improvement in the transparency of access to data, in relation to existing frameworks, since different structures can be accessed by the same interface, making possible the creation of a very flexible resource tree. Keywords: Distributed systems, robotics frameworks, interfaces.
2

Adapting the dynamic selection of classifiers approach for concept drift scenarios

Almeida, Paulo Ricardo Lisboa de January 2017 (has links)
Orientador : Luiz Eduardo S. de Oliveira / Coorientadores : Alceu de Souza Britto Jr. ; Robert Sabourin / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 09/11/2017 / Inclui referências : f. 143-154 / Resumo: Muitos ambientes podem sofrer com mudanças nas distribuições ou nas probabilidades a posteriori com o decorrer do tempo, em um problema conhecido como Concept Drift. Nesses cenários, é imperativa a implementação de algum mecanismo para adaptar o sistema de classificação às mudanças no ambiente a fim de minimizar o impacto na acurácia. Em um ambiente estático, é comum a utilização da Seleção Dinâmica de Classificadores (Dynamic Classifier Selection - DCS) para selecionar classificadores/ensembles customizados para cada uma das instâncias de teste de acordo com sua vizinhança em um conjunto de validação, onde a seleção pode ser vista como sendo dependente da região. Neste trabalho, a fim de tratar concept drifts, o conceito geral dos métodos de Seleção Dinâmica de Classificadores é estendido a fim de se tornar não somente dependente de região, mas também dependente do tempo. Através da adição da dependência do tempo, é demonstrado que a maioria dos métodos de Seleção Dinâmica de Classificadores podem ser adaptados para cenários contendo concept drifts, beneficiando-se da dependência de região, já que classificadores treinados em conceitos passados podem, em princípio, se manter competentes no conceito corrente em algumas regiões do espaço de características que não sofreram com mudanças. Neste trabalho a dependência de tempo para os métodos de Seleção Dinâmica é definida de acordo com o tipo de concept drift sendo tratado, que pode afetar apenas a distribuição no espaço de características ou as probabilidades a posteriori. Considerando as adaptações necessárias, o framework Dynse é proposto como uma ferramenta modular capaz de adaptar a Seleção Dinâmica de Classificadores para cenários contendo concept drits. Além disso, uma configuração padrão para o framework é proposta e um protocolo experimental, contendo sete Métodos de Seleção Dinâmica e doze problemas envolvendo concept drifts com diferentes propriedades, mostra que a Seleção Dinâmica de Classificadores pode ser adaptada para diferentes cenários contendo concept drifts. Quando comparado ao estado da arte, o framework Dynse, através da Seleção Dinâmica de Classificadores, se sobressai principalmente em termos de estabilidade. Ou seja, o método apresenta uma boa performance na maioria dos cenários, e requer quase nenhum ajuste de parâmetros. Key-words: Reconhecimento de Padrões. Concept Drift. Concept Drift Virtual. Concept Drift Real. Conjunto de Classificadores. Seleção Dinâmica de Classificadores. Acurácia Local. / Abstract: Many environments may suffer from distributions or a posteriori probabilities changes over time, leading to a phenomenon known as concept drift. In these scenarios, it is crucial to implement a mechanism to adapt the classification system to the environment changes in order to minimize any accuracy loss. Under a static environment, a popular approach consists in using a Dynamic Classifier Selection (DCS)-based method to select a custom classifier/ensemble for each test instance according to its neighborhood in a validation set, where the selection can be considered region-dependent. In order to handle concept drifts, in this work the general idea of the DCS method is extended to be also time-dependent. Through this time-dependency, it is demonstrated that most neighborhood DCS-based methods can be adapted to handle concept drift scenarios and take advantage of the region-dependency, since classifiers trained under previous concepts may still be competent in some regions of the feature space. The time-dependency for the DCS methods is defined according to the concept drift nature, which may define if the changes affects the a posteriori probabilities or the distributions only. By taking the necessary modifications, the Dynse framework is proposed in this work as a modular tool capable of adapting the DCS approach to concept drift scenarios. A default configuration for the Dynse framework is proposed and an experimental protocol, containing seven well-known DCS methods and 12 concept drift problems with different properties, shows that the DCS approach can adapt to different concept drift scenarios. When compared to state-of-the-art concept drift methods, the DCS-based approach comes out ahead in terms of stability, i.e., it performs well in most cases, and requires almost no parameter tuning. Key-words: Pattern Recognition. Concept Drift. Virtual Concept Drift. Real Concept Drift. Ensemble. Dynamic Classifier Selection. Local Accuracy.
3

Uma abordagem para gerenciamento de fluxo de dados da Internet das Coisas

Neves, Jefferson Paizano January 2017 (has links)
Orientador : Luis Carlos Erpen de Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2017 / Inclui referências : p. 73-80 / Resumo: O avanço das tecnologias de comunicação e a redução dos dispositivos computacionais estão propiciando o desenvolvimento da Internet das Coisas (IoT). Esta rede integra desde geladeiras, relógios, bicicletas até dispositivos computacionais, promovendo a interação entre os objetos e os seres humanos em ambientes como domiciliares e industriais. Com a integração da comunicação entre os objetos, dispositivos computacionais e seres humanos, vários serviços personalizados poderão ser prestados em tempo real, tais como o monitoramento das funções vitais, operações de gerenciamento de emergências e mensuração da temperatura. Contudo, a grande quantidade de objetos inseridos nos ambientes produzem em velocidades elevadas um enorme volume de dados. Esta gama de informações geradas coloca a IoT como um ponto chave no desenvolvimento de aplicações de análise e processamento de dados. No entanto, aspectos relacionados a processamento, encaminhamento e armazenamento dos dados precisão ser revisados e aperfeiçoados para as aplicações da IoT, pois, o tráfego dos dados para os provedores de serviços em nuvem pode degradar os canais de comunicação e aumentar a latência nos serviços. Por este motivo, o conceito emergente da computação em Névoa (Fog) surgiu no intuito de utilizar os recursos disponíveis próximo do usuário final para executar o processamento, encaminhamento e armazenamento dos dados gerados na IoT. Assim, a Fog permite manter o tráfego dos dados e o processamento na borda da rede. Este trabalho propõe uma abordagem para gerenciamento de fluxo de dados da Internet das Coisas na Fog. Essa abordagem utiliza a Fog em conjunto com uma plataforma para IoT, de modo a reduzir o tráfego de dados brutos e a latência na rede. Desta forma, os dados brutos são processados na borda da rede e encaminhados direto ao nó consumidor e/ou para a infraestrutura da Nuvem. A abordagem foi avaliado através de simulações que mostraram sua eficácia no gerenciamento dos dados na borda da rede, reduzindo a latência dos serviços. Palavras-chave: IoT, Fog, Gerenciamento de fluxo de dados, Plataforma para IoT. / Abstract: The advancement of communication technologies and the reduction of computing devices are enabling the development of the Internet of Things (IoT). This network integrates from refrigerator, clock, bikes to computing devices, promoting the interaction between objects and humans in environments such as home and industrial. With the integration of communication between objects, computing devices, and many custom services humans can provided in realtime as the monitoring of vital functions, emergency management operations, measurement of temperature. However, the large amount of inserted objects in the environments at high speeds produce a huge volume of data. This range of information generated puts the IoT as a key point in the development of analysis and data processing applications. However, aspects related to data processing, routing, and storage need to be reviewed and improved for IoT applications because data traffic to cloud service providers can degrade communication channels and increase service latency. For this reason, the emergent concept of Fog Computing has appeared to use the available resources near the end-user to do the processing, routing and storage of the data generated in IoT. Fog allows you to keep data traffic and processing at the edge of the network. This paper proposes an approach to data flow management the Internet of Things in Fog. This approach uses Fog with an IoT platform to cut raw data traffic and latency on the network. In this way, the raw data is process at the edge of the network and send directly to the consumer node and/or to the cloud infrastructure. The approach was test through simulations that showed its effectiveness in data management at the edge of the network, reducing service latency. Keywords: IoT, Fog, Data flow management, Platform for IoT.
4

A near-data select scan operator for database systems

Tomé, Diego Gomes January 2017 (has links)
Orientador : Eduardo Cunha de Almeida / Coorientador : Marco Antonio Zanata Alves / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 21/12/2017 / Inclui referências : p. 61-64 / Resumo: Um dos grandes gargalos em sistemas de bancos de dados focados em leitura consiste em mover dados em torno da hierarquia de memória para serem processados na CPU. O movimento de dados é penalizado pela diferença de desempenho entre o processador e a memória, que é um problema bem conhecido chamado memory wall. O surgimento de memórias inteligentes, como o novo Hybrid Memory Cube (HMC), permitem mitigar o problema do memory wall executando instruções em chips de lógica integrados a uma pilha de DRAMs. Essas memórias possuem potencial para computação de operações de banco de dados direto em memória além do armazenamento de bancos de dados. O objetivo desta dissertação é justamente a execução do operador algébrico de seleção direto em memória para reduzir o movimento de dados através da memória e da hierarquia de cache. O foco na operação de seleção leva em conta o fato que a leitura de colunas a serem filtradas movem grandes quantidades de dados antes de outras operações como junções (ou seja, otimização push-down). Inicialmente, foi avaliada a execução da operação de seleção usando o HMC como uma DRAM comum. Posteriormente, são apresentadas extensões à arquitetura e ao conjunto de instruções do HMC, chamado HMC-Scan, para executar a operação de seleção próximo aos dados no chip lógico do HMC. Em particular, a extensão HMC-Scan tem o objetivo de resolver internamente as dependências de instruções. Contudo, nós observamos que o HMC-Scan requer muita interação entre a CPU e a memória para avaliar a execução de filtros de consultas. Portanto, numa segunda contribuição, apresentamos a extensão arquitetural HIPE-Scan para diminuir esta interação através da técnica de predicação. A predicação suporta a avaliação de predicados direto em memória sem necessidade de decisões da CPU e transforma dependências de controle em dependências de dados (isto é, execução predicada). Nós implementamos a operação de seleção próximo aos dados nas estratégias de execução de consulta orientada a linha/coluna/vetor para a arquitetura x86 e para nas duas extensões HMC-Scan e HIPE-Scan. Nossas simulações mostram uma melhora de desempenho de até 3.7× para HMC-Scan e 5.6× para HIPE-Scan quando executada a consulta 06 do benchmark TPC-H de 1 GB na estratégia de execução orientada a coluna. Palavras-chave: SGBD em Memória, Cubo de Memória Híbrido, Processamento em Memória. / Abstract: A large burden of processing read-mostly databases consists of moving data around the memory hierarchy rather than processing data in the processor. The data movement is penalized by the performance gap between the processor and the memory, which is the well-known problem called memory wall. The emergence of smart memories, as the new Hybrid Memory Cube (HMC), allows mitigating the memory wall problem by executing instructions in logic chips integrated to a stack of DRAMs. These memories can enable not only in-memory databases but also have potential for in-memory computation of database operations. In this dissertation, we focus on the discussion of near-data query processing to reduce data movement through the memory and cache hierarchy. We focus on the select scan database operator, because the scanning of columns moves large amounts of data prior to other operations like joins (i.e., push-down optimization). Initially, we evaluate the execution of the select scan using the HMC as an ordinary DRAM. Then, we introduce extensions to the HMC Instruction Set Architecture (ISA) to execute our near-data select scan operator inside the HMC, called HMC-Scan. In particular, we extend the HMC ISA with HMC-Scan to internally solve instruction dependencies. To support branch-less evaluation of the select scan and transform control-flow dependencies into data-flow dependencies (i.e., predicated execution) we propose another HMC ISA extension called HIPE-Scan. The HIPE-Scan leads to less iteration between processor and HMC during the execution of query filters that depends on in-memory data. We implemented the near-data select scan in the row/column/vector-wise query engines for x86 and two HMC extensions, HMC-Scan and HIPE-Scan achieving performance improvements of up to 3.7× for HMC-Scan and 5.6× for HIPE-Scan when executing the Query-6 from 1 GB TPC-H database on column-wise. Keywords: In-Memory DBMS, Hybrid Memory Cube, Processing-in-Memory.
5

Uma estratégia de publicação do status de chaves públicas em redes centradas na informação

Rezende, Daniel de January 2017 (has links)
Orientador : Carlos Alberto Maziero / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/08/2017 / Inclui referências : p. 73-75 / Resumo: As redes centradas na informação (Information-Centric Networking - ICN) representam uma abordagem para aprimorar a infraestrutura da Internet, introduzindo dados nomeados como primitiva de rede. Os conteúdos tornam-se independentes de localização, aplicação, armazenamento e meios de transporte, permitindo o armazenamento em cache. Os benefícios esperados são melhorias na segurança, escalabilidade e redução da utilização de banda. Os conteúdos são nomeados pelos seus publicadores e precisam ser assinados digitalmente para garantir a sua integridade e proveniência. Para assinar os conteúdos, o publicador precisa utilizar os recursos disponibilizados por um sistema de infraestrutura de chaves públicas. Uma vez assinado, o conteúdo é servido aos clientes que devem recuperar a chave pública correspondente para validá-lo. Essa chave deve estar de acordo com as regras impostas pelo modelo de confiança adotado e precisa ser válida, ou seja, não pode ter sido revogada. Uma vez que uma chave é revogada, é necessário notificar os seus usuários. Este trabalho apresenta uma abordagem de um serviço para divulgação do status das chaves utilizadas para validação dos conteúdos. Este trabalho propõe um serviço distribuído e atualizado por replicação, visando melhorar sua robustez e diminuir o tempo necessário à propagação da informação do status das chaves na rede. Os principais resultados mostram que o serviço proposto pode reduzir significativamente o tempo de recuperação do status da chave, refletindo o estado atual do certificado. Os resultados também apontam que quando o consumidor recupera as informações de status da chave pelo serviço de consulta em vez do cache, ele obtém uma informação mais precisa. Palavras-chave: Segurança, Redes Centradas em Informações, Revogação de chaves. / Abstract: The Information Centric Networks (ICN) is an approach to improve the Internet infrastructure, introducing data named as network primitive. The contents are independent of location, application, transport, allowing the storage in cache. The expected benefits are improvements in security, scalability, and reduced bandwidth usage. The contents are named by their publishers and must be digitally signed to ensure their provenance. To sign the contents the publisher must use the resources provided by a public key infrastructure system. Once signed, the content is offered to customers, which should retrive the corresponding public key to validate it. This key must be valid in conformity with the rules enforced by the trust model and must be valid, i.e. it should not have been revoked. Once a key is revoked, its users should be notified. This paper proposes a service approach to disseminate key status information of the keys used to validate the contents. Main results shows that the proposed service is able to significantly reduce key status retrieval time, reflecting the actual state of the certificate. When the consumer retrieves the key status information by our query service instead of the cache, it gets a more accurate information. Keywords: Security, Information Centric Networking, Key Revocation.
6

Um método de coleta e classificação de metadados de produção científica em repositórios digitais institucionais

Ferreira, Elisabete January 2016 (has links)
Orientador : Prof. Dr. Marcos Sfair Sunye / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 05/07/2016 / Inclui referências : f. 59-64 / Resumo: A agregação da produção científica em um único ambiente digital institucional permite às instituições gerar indicadores internos de produção científica e tecnológica, realizar estudos através da aplicação de ferramentas de mineração de dados, bem como apoiar a implementação de políticas de gestão. Embora as instituições acadêmicas sejam as grandes produtoras de conhecimento científico, enfrentam dificuldades para identificar, agregar e quantificar o próprio conhecimento produzido em seus ambientes digitais e, por conseguinte definirem critérios precisos para planejamento e distribuição de recursos que fomentem a produção científica por parte de seu corpo docente. Este trabalho apresenta uma metodologia para carga automática de metadados e artigos científicos disponibilizados em acesso aberto e dispersos em periódicos científicos, em Repositórios Digitais Institucionais obtidos por meio de extração de dados contidos nos currículos dos docentes da Universidade Federal do Paraná, registrados na Plataforma Lattes, além de auxiliar a instituição no planejamento dos custos necessários para manutenção de seu ambiente digital, através da obtenção do volume de produção científica a ser armazenado em seu repositório digital institucional. Para efeito da implementação da proposta foi desenvolvido um conjunto de componentes para mineração de artigos científicos produzidos e disponibilizados em acesso aberto na plataforma DSpace. Palavras-chave: Acesso aberto. Colheita automatizada. Metadados. Mineração de dados. Publicações científicas. Repositórios digitais. / Abstract: The aggregation of scientific production in a single institutional digital environment allows institutions to generate internal indicators of scientific and technological production, conduct studies through the application of data mining tools as well as support the implementation of management policies. Although the academic instituitons have been the great cientific knowledge generators, they face dificulties in identifying, aggregating and quantifying their knowledge in their digital environments, and as a consequence to define precise criteria for planning and distributing resources that to encourage the cientific production by their researchers. This work proposes a methodology for the automatic loading of metadata and open access scientific articles, spread out in scientific journals in Institutional Digital Repositories, obtained through extraction of data contained in the curricula registered in the Lattes Platform of teachers of Federal University of Paraná. A further objective is to assist the institution for planning the costs required to maintain their digital environment by obtaining the volume of scientific production to be stored in its institutional digital repository. For the purpose of implementation, a set of components was developed for data mining of scientific articles produced and made available in open access on DSpace. Keywords: Automated harvesting. Data mining. Digital repositories. Metadata. Open access. Scientific publications.
7

Raciocínio baseado em casos como recomendador de conteúdo pedagógico

Zavadinack, Carlos André January 2016 (has links)
Orientador : Prof. Dr. Fabiano Silva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 31/08/2016 / Inclui referências : f. 63-67 / Resumo: Raciocínio baseado em Casos (CBR) e um método para resolver problemas com recuperação de solucões para problemas anteriores. CBR demanda uma representacão de conhecimento que permite o resolvedor a buscar casos similareas atraves de uma pergunta e a taxa de similaridade e dado pela distancia em uma estrutura de arvore, uma ontologia. O objetivo da presente pesquisa e utilizar CBR como uma ferramenta pedagógica atraves de quatro pilares: Raciocínio Baseado em Casos, Representacao de conhecimento, Informatica Educacional e a mediacao do erro na educacao. Considera-se erro como uma questao de importancia no desenvolvimento pedagogico, entao isso deve ser mediado. A mediacao de erro e utilizada como um guia para uma classificaçao quantitativa de exercícios, levando em consideraçao quantas vezes um exercício foi respondido erroneamente, a distancia entre os exercícios da suas similaridades. Esse tipo de classificacao automatica para exercícios em sistemas de apoio educacional e uma das principais contribuições dessa pesquisa. Este trabalho sugere que o ciclo CBR e profícuo no desenvolvimento de uma ferramenta para criaçao automatica de exames. Palavras-chave: raciocínio baseado em casos, mediacao por erros, representacao do conhecimento, informatica educacional. / Abstract: Case-based Reasoning (CBR) is a method for solving problems with similar retained solutions. CBR demands a knowledge representation that allows the reasoner to find similar cases by a query and the similarity rate is given by a distance in hierarchical tree structure, an ontology. The main goal of this research is to use CBR as a pedagogical tool supported by three pillars: Case-based reasoning, Knowledge representation and Error Mediation in Education. It is considered that the error has a role of importance in the pedagogical development, so it has to be mediated. The error mediation is used as a rule for a quantitative way of exercises classification, it takes into account how many times an exercise have been uncorrected answered, the distance between exercises gives the similarity between them. This kind of automatically classification for exercises in a educational support systems is one of the main contributions of this research. This work suggests that the CBR cycle is useful in the designing of a tool for automatic creation of exams. Keywords: case-based reasoning, error mediation, knowlodge representation, educational informatics.
8

Busca e ranqueamento de recursos educacionais com suporte de agrupamento de tags

Pimentel, Marina Assako Hoshiba January 2017 (has links)
Orientador : Marcos Didonet Del Fabro / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/08/2017 / Inclui referências : f. 69-73 / Resumo: A busca e recuperação de recursos educacionais em repositórios digitais tem sido uma tarefa árdua, principalmente devido às implementações dos algoritmos de busca baseados em busca sintática. Apesar dos sistemas de busca serem bastante utilizados, pesquisas relatam que é desafiador para os professores a busca e seleção dos recursos disponíveis nos repositórios digitais, pois muitos conteúdos irrelevantes são retornados. Caso não seja aplicado um método de classificação adequado, o usuário terá dificuldades para encontrar resultados consistentes e relevantes para a sua busca. O presente trabalho tem como objetivo propor um modelo de busca e ranqueamento de recursos educacionais em repositórios digitais com suporte do agrupamento de tags. A formação dos agrupamentos baseia-se nas medidas de coocorrências entre tags. Com o suporte destes agrupamentos é possível realizar a busca de recursos educacionais por meio das tags correlacionadas ao termo original de busca. O peso dos recursos encontrados é dado pelo somatório dos pesos das respectivas tags do agrupamento atribuídas aos recursos. Este conjunto de resultados é somado ao conjunto de resultados encontrados via motor de busca. Os recursos educacionais dos dois conjuntos passam por uma espécie de normalização de pesos para possibilitar a união dos resultados e um novo ranqueamento é calculado, reclassificando os recursos educacionais, impulsionando e destacando os resultados considerados relevantes em relação ao termo original de busca bem como às tags correlacionadas. O modelo proposto foi instanciado utilizando-se a infraestrutura de um portal existente, mostrando assim a sua viabilidade. Pela expansão dos termos de busca com as tags correlacionadas, o modelo proposto encontra resultados distintos que antes não eram encontrados apenas pelo uso de um motor de busca, ampliando e diversificando os resultados. A avaliação dos resultados dos experimentos é feita de forma empírica. Palavras-chave: recursos educacionais, agrupamento de tags, busca, ranqueamento, folksonomia. / Abstract: The search and retrieval of educational resources in digital repositories has been an arduous task, mainly due to the implementation of the search algorithms based on syntactic search. Despite search engines are widely used, researches show how challenging it is for teachers to search and retrieve resources available in digital repositories, where many irrelevant content are returned. If an appropriate classification method is not applied, it will be difficult to the users to find consistent and relevant results for their search. The present work aims to propose a model for educational resources searching process in digital repositories supported by tag clustering. The clusters are calculated based on tags co-occurrences measure. With the support of these tag clustering structure, it is possible to search educational resources related to the original search term as well as with correlated tags. The ranking weight of the found resources are given by the sum of the respective correlated tag weights assigned to the resources. Another result set is given by the search engine. The educational resources of the two groups undergo a kind of weight normalization to enable the union of the results. A new ranking is calculated, boosting and highlighting the results considered relevant in relation to the original search term as well as to the correlated tags. The proposed model was instantiated using the infrastructure of an existing portal, showing this way its viability. The expansion of the search terms with the correlated tags enables distinct results to be found through the proposed model, that previously were not found only by the search engine. The evaluation of all experiments is done empirically. Keywords: educational resources, tag clustering, seaching, ranking, folksonomy.
9

Rastreamento facial e refinamento de pontos fiduciais 3D baseado na região do nariz em ambientes não controlados

Silva, Luan Porfirio e January 2017 (has links)
Orientadora : Profa. Dra. Olga R. P. Bellon / Coorientador : Prof. Dr. Luciano Silva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/05/2017 / Inclui referências : f. 69-78 / Resumo: O rastreamento da face utiliza a informa..o temporal para inferir a posição da face em cada frame. Uma de suas aplicações . em cenários não controlados, onde os métodos de detecção da face falham. As abordagens atuais presentes na literatura s.o baseadas em pontos fiduciais, por.m encontram dificuldades quando aplicadas em ambientes n.o controlados, devido este cenário no ser trivial. Para lidar com esta dificuldade, o presente trabalho propõe uma abordagem baseada no método de rastreamento visual de Nam e Han, inicializando-o com a regi.o do nariz detectada no frame de vídeo com melhor qualidade da face. A regi.o do nariz, ao inv.s da face inteira, foi escolhida devido sua menor probabilidade de estar oclusa, ser invariante a expressões faciais e visível em grande variações de pose. Foram realizados experimentos na base de dados 300 Videos in the Wild e Point and Shoot Challenge, em compara..o ao rastreamento de face. J. o alinhamento de faces em ambientes sem restrições consiste em localizar pontos fiduciais com precisão, auxiliando em tarefas como reconstrução 3d, reconhecimento e analise de expressões faciais. Em situações onde existem variações de poses, a aparência da face difere da face frontal, dificultando a tarefa de alinhamento. Para contornar esta situa..o, este trabalho propõe refinar a localiza..o dos pontos fiduciais com regressão em cascata e regressão com vetores de suporte (SVR), partindo da pose estimada com a regi.o do nariz. Experimentos foram realizados na base de dados 3D Face Alignment in the Wild, demonstrando resultados amplamente superiores ao alinhamento baseado na pose e comparáveis ao estado-da-arte. Palavras-chave: rastreamento da face; alinhamento de face 3d; refinamento de pontos fiduciais. / Abstract: Face tracking uses temporal information to infer the position of the face in each frame. One of its applications is in-the-wild environments where face detection methods fail to perform robustly. Current approaches presented in the literature are based on facial landmarks. Therefore, they have limitations when applied in in-the-wild environments as estimating the landmarks in such scenarios is not trivial. To address this issue, this work propose an approach based on a Nam and Han's visual tracking method, initializing it with the nose of the best quality face in the video sequence. The nose region, rather than the entire face was chosen due to it being unlikely to be occluded, mostly invariant to facial expressions and visible in a long range of head poses. We performed experiments on the 300 Videos in the Wild and Point and Shoot Challenge datasets. Face alignment in unrestricted environments, however, consists of accurately locating landmarks, assisting in tasks such as 3D reconstruction, recognition and facial expression analysis. In situations where there are variations of poses, the face appearance differs from the frontal face, making the alignment task difficult. To overcome this issue, this work proposes to refine the landmarks by using cascade regression and support vector regression (SVR), starting from the pose estimated with the nose region. Experiments were performed on the 3D Face Alignment in the Wild dataset, showing results broadly superior to pose-based alignment and comparable to the state-of-the-art. Keywords: face tracking; 3d face alignment; landmark refinement.
10

Técnicas probabilísticas aplicadas em algoritmos de aproximação

Bordini, Camile Frazão January 2016 (has links)
Orientador : Prof. Dr. Renato José da Silva Carmo / Coorientador : Prof. Dr. André Luis Vignatti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/11/2016 / Inclui referências : f. 91-94 / Área de concentração: Ciência da computação / Resumo: Pesquisadores e cientistas têm percebido cada vez mais que a aleatoriedade é um componente essencial na modelagem e análise da natureza. Na ciência da computação não é diferente: o uso da aleatoriedade e de métodos probabilísticos desempenham um papel importante na ciência moderna. No caso da computação, um dos grandes usos da teoria de probabilidade é através de algoritmos de aproximação, uma vez que estamos mais interessados na execução em tempo polinomial do algoritmo do que na necessidade do mesmo em obter a resposta ótima para um certo problema. As formas mais usuais com que a aleatoriedade pode se comportar na ciência da computação são através do uso de algoritmos aleatorizados na resolução de problemas computacionais e nas análises de caso médio dos algoritmos, sejam eles aleatorizados ou não. Os quatro problemas estudados na primeira parte desta dissertação fazem uso de algoritmos aleatorizados, onde o leitor poderá obter uma visão geral sobre como escolhas com base em probabilidades são feitas durante a execução de um algoritmo e também em como se dá a análise de caso médio dos mesmos. Na segunda parte é analisado uma versão do problema da localização de p-hub medianas em que propomos um algoritmo com uma (4_)-aproximação, que apesar de não utilizar técnicas aleatorizadas em sua execução, tem sua análise feita sob aspectos probabilísticos. Palavras-chave: problemas de otimização, algoritmos de aproximação, algoritmos aleatorizados, análise de caso médio, análise probabilística de algoritmos. / Abstract: Researchers and scientists have increasingly realized randomness is an essential component in modeling and analysis of nature. In computer science it is no different: the use of randomness and probabilistic methods play a important role in modern science. In the case of computing, one of the main utilities of probability theory is by approximation algorithms, once we are more interested in a polynomial time algorithm than obtaining the optimal answer to a certain problem. The most usual ways that randomness comes to bear in computer science are by randomized algorithms when solving computational problems and in the average case analysis of algorithms, whether or not randomized. The four problems studied in the first part of this document use randomized algorithms, on that reader will get an overview of how probability-based choices are made during the execution of an algorithm and how is your average case analysis too. In the second part, we analyzed a version of p-hub median problem which we propose an algorithm with an (4_)-approximation, that despite not using randomized techniques during execution, its analysis is based on probabilistic aspects. Keywords: optimization problems, approximation algorithms, randomized algorithms, average case analysis, probabilistic analysis of algorithms.

Page generated in 0.0952 seconds