Spelling suggestions: "subject:"ciência dda computação."" "subject:"ciência dda omputação.""
1 |
Busca e ranqueamento de recursos educacionais com suporte de agrupamento de tagsPimentel, Marina Assako Hoshiba January 2017 (has links)
Orientador : Marcos Didonet Del Fabro / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/08/2017 / Inclui referências : f. 69-73 / Resumo: A busca e recuperação de recursos educacionais em repositórios digitais tem sido uma tarefa árdua, principalmente devido às implementações dos algoritmos de busca baseados em busca sintática. Apesar dos sistemas de busca serem bastante utilizados, pesquisas relatam que é desafiador para os professores a busca e seleção dos recursos disponíveis nos repositórios digitais, pois muitos conteúdos irrelevantes são retornados. Caso não seja aplicado um método de classificação adequado, o usuário terá dificuldades para encontrar resultados consistentes e relevantes para a sua busca. O presente trabalho tem como objetivo propor um modelo de busca e ranqueamento de recursos educacionais em repositórios digitais com suporte do agrupamento de tags. A formação dos agrupamentos baseia-se nas medidas de coocorrências entre tags. Com o suporte destes agrupamentos é possível realizar a busca de recursos educacionais por meio das tags correlacionadas ao termo original de busca. O peso dos recursos encontrados é dado pelo somatório dos pesos das respectivas tags do agrupamento atribuídas aos recursos. Este conjunto de resultados é somado ao conjunto de resultados encontrados via motor de busca. Os recursos educacionais dos dois conjuntos passam por uma espécie de normalização de pesos para possibilitar a união dos resultados e um novo ranqueamento é calculado, reclassificando os recursos educacionais, impulsionando e destacando os resultados considerados relevantes em relação ao termo original de busca bem como às tags correlacionadas. O modelo proposto foi instanciado utilizando-se a infraestrutura de um portal existente, mostrando assim a sua viabilidade. Pela expansão dos termos de busca com as tags correlacionadas, o modelo proposto encontra resultados distintos que antes não eram encontrados apenas pelo uso de um motor de busca, ampliando e diversificando os resultados. A avaliação dos resultados dos experimentos é feita de forma empírica. Palavras-chave: recursos educacionais, agrupamento de tags, busca, ranqueamento, folksonomia. / Abstract: The search and retrieval of educational resources in digital repositories has been an arduous task, mainly due to the implementation of the search algorithms based on syntactic search. Despite search engines are widely used, researches show how challenging it is for teachers to search and retrieve resources available in digital repositories, where many irrelevant content are returned. If an appropriate classification method is not applied, it will be difficult to the users to find consistent and relevant results for their search. The present work aims to propose a model for educational resources searching process in digital repositories supported by tag clustering. The clusters are calculated based on tags co-occurrences measure. With the support of these tag clustering structure, it is possible to search educational resources related to the original search term as well as with correlated tags. The ranking weight of the found resources are given by the sum of the respective correlated tag weights assigned to the resources. Another result set is given by the search engine. The educational resources of the two groups undergo a kind of weight normalization to enable the union of the results. A new ranking is calculated, boosting and highlighting the results considered relevant in relation to the original search term as well as to the correlated tags. The proposed model was instantiated using the infrastructure of an existing portal, showing this way its viability. The expansion of the search terms with the correlated tags enables distinct results to be found through the proposed model, that previously were not found only by the search engine. The evaluation of all experiments is done empirically. Keywords: educational resources, tag clustering, seaching, ranking, folksonomy.
|
2 |
A near-data select scan operator for database systemsTomé, Diego Gomes January 2017 (has links)
Orientador : Eduardo Cunha de Almeida / Coorientador : Marco Antonio Zanata Alves / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 21/12/2017 / Inclui referências : p. 61-64 / Resumo: Um dos grandes gargalos em sistemas de bancos de dados focados em leitura consiste em mover dados em torno da hierarquia de memória para serem processados na CPU. O movimento de dados é penalizado pela diferença de desempenho entre o processador e a memória, que é um problema bem conhecido chamado memory wall. O surgimento de memórias inteligentes, como o novo Hybrid Memory Cube (HMC), permitem mitigar o problema do memory wall executando instruções em chips de lógica integrados a uma pilha de DRAMs. Essas memórias possuem potencial para computação de operações de banco de dados direto em memória além do armazenamento de bancos de dados. O objetivo desta dissertação é justamente a execução do operador algébrico de seleção direto em memória para reduzir o movimento de dados através da memória e da hierarquia de cache. O foco na operação de seleção leva em conta o fato que a leitura de colunas a serem filtradas movem grandes quantidades de dados antes de outras operações como junções (ou seja, otimização push-down). Inicialmente, foi avaliada a execução da operação de seleção usando o HMC como uma DRAM comum. Posteriormente, são apresentadas extensões à arquitetura e ao conjunto de instruções do HMC, chamado HMC-Scan, para executar a operação de seleção próximo aos dados no chip lógico do HMC. Em particular, a extensão HMC-Scan tem o objetivo de resolver internamente as dependências de instruções. Contudo, nós observamos que o HMC-Scan requer muita interação entre a CPU e a memória para avaliar a execução de filtros de consultas. Portanto, numa segunda contribuição, apresentamos a extensão arquitetural HIPE-Scan para diminuir esta interação através da técnica de predicação. A predicação suporta a avaliação de predicados direto em memória sem necessidade de decisões da CPU e transforma dependências de controle em dependências de dados (isto é, execução predicada). Nós implementamos a operação de seleção próximo aos dados nas estratégias de execução de consulta orientada a linha/coluna/vetor para a arquitetura x86 e para nas duas extensões HMC-Scan e HIPE-Scan. Nossas simulações mostram uma melhora de desempenho de até 3.7× para HMC-Scan e 5.6× para HIPE-Scan quando executada a consulta 06 do benchmark TPC-H de 1 GB na estratégia de execução orientada a coluna. Palavras-chave: SGBD em Memória, Cubo de Memória Híbrido, Processamento em Memória. / Abstract: A large burden of processing read-mostly databases consists of moving data around the memory hierarchy rather than processing data in the processor. The data movement is penalized by the performance gap between the processor and the memory, which is the well-known problem called memory wall. The emergence of smart memories, as the new Hybrid Memory Cube (HMC), allows mitigating the memory wall problem by executing instructions in logic chips integrated to a stack of DRAMs. These memories can enable not only in-memory databases but also have potential for in-memory computation of database operations. In this dissertation, we focus on the discussion of near-data query processing to reduce data movement through the memory and cache hierarchy. We focus on the select scan database operator, because the scanning of columns moves large amounts of data prior to other operations like joins (i.e., push-down optimization). Initially, we evaluate the execution of the select scan using the HMC as an ordinary DRAM. Then, we introduce extensions to the HMC Instruction Set Architecture (ISA) to execute our near-data select scan operator inside the HMC, called HMC-Scan. In particular, we extend the HMC ISA with HMC-Scan to internally solve instruction dependencies. To support branch-less evaluation of the select scan and transform control-flow dependencies into data-flow dependencies (i.e., predicated execution) we propose another HMC ISA extension called HIPE-Scan. The HIPE-Scan leads to less iteration between processor and HMC during the execution of query filters that depends on in-memory data. We implemented the near-data select scan in the row/column/vector-wise query engines for x86 and two HMC extensions, HMC-Scan and HIPE-Scan achieving performance improvements of up to 3.7× for HMC-Scan and 5.6× for HIPE-Scan when executing the Query-6 from 1 GB TPC-H database on column-wise. Keywords: In-Memory DBMS, Hybrid Memory Cube, Processing-in-Memory.
|
3 |
Uma abordagem para gerenciamento de fluxo de dados da Internet das CoisasNeves, Jefferson Paizano January 2017 (has links)
Orientador : Luis Carlos Erpen de Bona / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 14/09/2017 / Inclui referências : p. 73-80 / Resumo: O avanço das tecnologias de comunicação e a redução dos dispositivos computacionais estão propiciando o desenvolvimento da Internet das Coisas (IoT). Esta rede integra desde geladeiras, relógios, bicicletas até dispositivos computacionais, promovendo a interação entre os objetos e os seres humanos em ambientes como domiciliares e industriais. Com a integração da comunicação entre os objetos, dispositivos computacionais e seres humanos, vários serviços personalizados poderão ser prestados em tempo real, tais como o monitoramento das funções vitais, operações de gerenciamento de emergências e mensuração da temperatura. Contudo, a grande quantidade de objetos inseridos nos ambientes produzem em velocidades elevadas um enorme volume de dados. Esta gama de informações geradas coloca a IoT como um ponto chave no desenvolvimento de aplicações de análise e processamento de dados. No entanto, aspectos relacionados a processamento, encaminhamento e armazenamento dos dados precisão ser revisados e aperfeiçoados para as aplicações da IoT, pois, o tráfego dos dados para os provedores de serviços em nuvem pode degradar os canais de comunicação e aumentar a latência nos serviços. Por este motivo, o conceito emergente da computação em Névoa (Fog) surgiu no intuito de utilizar os recursos disponíveis próximo do usuário final para executar o processamento, encaminhamento e armazenamento dos dados gerados na IoT. Assim, a Fog permite manter o tráfego dos dados e o processamento na borda da rede. Este trabalho propõe uma abordagem para gerenciamento de fluxo de dados da Internet das Coisas na Fog. Essa abordagem utiliza a Fog em conjunto com uma plataforma para IoT, de modo a reduzir o tráfego de dados brutos e a latência na rede. Desta forma, os dados brutos são processados na borda da rede e encaminhados direto ao nó consumidor e/ou para a infraestrutura da Nuvem. A abordagem foi avaliado através de simulações que mostraram sua eficácia no gerenciamento dos dados na borda da rede, reduzindo a latência dos serviços. Palavras-chave: IoT, Fog, Gerenciamento de fluxo de dados, Plataforma para IoT. / Abstract: The advancement of communication technologies and the reduction of computing devices are enabling the development of the Internet of Things (IoT). This network integrates from refrigerator, clock, bikes to computing devices, promoting the interaction between objects and humans in environments such as home and industrial. With the integration of communication between objects, computing devices, and many custom services humans can provided in realtime as the monitoring of vital functions, emergency management operations, measurement of temperature. However, the large amount of inserted objects in the environments at high speeds produce a huge volume of data. This range of information generated puts the IoT as a key point in the development of analysis and data processing applications. However, aspects related to data processing, routing, and storage need to be reviewed and improved for IoT applications because data traffic to cloud service providers can degrade communication channels and increase service latency. For this reason, the emergent concept of Fog Computing has appeared to use the available resources near the end-user to do the processing, routing and storage of the data generated in IoT. Fog allows you to keep data traffic and processing at the edge of the network. This paper proposes an approach to data flow management the Internet of Things in Fog. This approach uses Fog with an IoT platform to cut raw data traffic and latency on the network. In this way, the raw data is process at the edge of the network and send directly to the consumer node and/or to the cloud infrastructure. The approach was test through simulations that showed its effectiveness in data management at the edge of the network, reducing service latency. Keywords: IoT, Fog, Data flow management, Platform for IoT.
|
4 |
Uma aplicação para a LPRSá, Samy Soares Passos de January 2008 (has links)
SÁ, Samy Soares Passos de. Uma aplicação para a LPR. 2008. 141 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2008. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-12T17:22:42Z
No. of bitstreams: 1
2008_dis_sspsa.pdf: 2115584 bytes, checksum: d4deacd5a3b3ddf9d60b718c6fc45ca9 (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-22T12:26:23Z (GMT) No. of bitstreams: 1
2008_dis_sspsa.pdf: 2115584 bytes, checksum: d4deacd5a3b3ddf9d60b718c6fc45ca9 (MD5) / Made available in DSpace on 2016-07-22T12:26:23Z (GMT). No. of bitstreams: 1
2008_dis_sspsa.pdf: 2115584 bytes, checksum: d4deacd5a3b3ddf9d60b718c6fc45ca9 (MD5)
Previous issue date: 2008 / Sistemas automatizados de apoio à decisão lidam com a representação de conhecimento através de sistemas formais que permitam cálculo de inferências, e através deste, a possibilidade de tirar conclusões de uma base de conhecimento. Lógicas não-monotônicas vêm sendo discutidas como solução para contornar os limites de expressividade da lógica clássica quanto à representação de bases de conhecimento. A LPR (Logic of Plausible Reasoning) é uma proposta recente, que sugere uma estrutura de regra não monotônica através do conceito de generalização e um cálculo de extensões próprio como solução capaz de lidar com alguns dos principais problemas e limites expressivos dos formalismos que a antecederam. O presente trabalho é um dos primeiros a explorar o poder expressivo e potencial para a utilização dessa técnica como ferramenta de modelagem de bases de conhecimento para sistemas de apoio à decisão. Introduzimos as regras de um jogo enquanto sistema formal adequado à análise e ilustramos o funcionamento do raciocínio modelado pela LPR sobre o conhecimento corrente em vários momentos do mesmo, permitindo modelar aspectos do pensamento tais como a formulação de conjecturas, avaliação de cenários e mudança de idéia em decorrência de novas descobertas. Apresentamos, ainda, um programa PROLOG que implementa o modelo descrito com regras LPR como instrumento de corretude do mesmo, utilizando uma técnica de divisão do programa para formular na linguagem regras baseadas em quantificadores e equivalência de variáveis.
|
5 |
Rastreamento facial e refinamento de pontos fiduciais 3D baseado na região do nariz em ambientes não controladosSilva, Luan Porfirio e January 2017 (has links)
Orientadora : Profa. Dra. Olga R. P. Bellon / Coorientador : Prof. Dr. Luciano Silva / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 26/05/2017 / Inclui referências : f. 69-78 / Resumo: O rastreamento da face utiliza a informa..o temporal para inferir a posição da face em cada frame. Uma de suas aplicações . em cenários não controlados, onde os métodos de detecção da face falham. As abordagens atuais presentes na literatura s.o baseadas em pontos fiduciais, por.m encontram dificuldades quando aplicadas em ambientes n.o controlados, devido este cenário no ser trivial. Para lidar com esta dificuldade, o presente trabalho propõe uma abordagem baseada no método de rastreamento visual de Nam e Han, inicializando-o com a regi.o do nariz detectada no frame de vídeo com melhor qualidade da face. A regi.o do nariz, ao inv.s da face inteira, foi escolhida devido sua menor probabilidade de estar oclusa, ser invariante a expressões faciais e visível em grande variações de pose. Foram realizados experimentos na base de dados 300 Videos in the Wild e Point and Shoot Challenge, em compara..o ao rastreamento de face. J. o alinhamento de faces em ambientes sem restrições consiste em localizar pontos fiduciais com precisão, auxiliando em tarefas como reconstrução 3d, reconhecimento e analise de expressões faciais. Em situações onde existem variações de poses, a aparência da face difere da face frontal, dificultando a tarefa de alinhamento. Para contornar esta situa..o, este trabalho propõe refinar a localiza..o dos pontos fiduciais com regressão em cascata e regressão com vetores de suporte (SVR), partindo da pose estimada com a regi.o do nariz. Experimentos foram realizados na base de dados 3D Face Alignment in the Wild, demonstrando resultados amplamente superiores ao alinhamento baseado na pose e comparáveis ao estado-da-arte. Palavras-chave: rastreamento da face; alinhamento de face 3d; refinamento de pontos fiduciais. / Abstract: Face tracking uses temporal information to infer the position of the face in each frame. One of its applications is in-the-wild environments where face detection methods fail to perform robustly. Current approaches presented in the literature are based on facial landmarks. Therefore, they have limitations when applied in in-the-wild environments as estimating the landmarks in such scenarios is not trivial. To address this issue, this work propose an approach based on a Nam and Han's visual tracking method, initializing it with the nose of the best quality face in the video sequence. The nose region, rather than the entire face was chosen due to it being unlikely to be occluded, mostly invariant to facial expressions and visible in a long range of head poses. We performed experiments on the 300 Videos in the Wild and Point and Shoot Challenge datasets. Face alignment in unrestricted environments, however, consists of accurately locating landmarks, assisting in tasks such as 3D reconstruction, recognition and facial expression analysis. In situations where there are variations of poses, the face appearance differs from the frontal face, making the alignment task difficult. To overcome this issue, this work proposes to refine the landmarks by using cascade regression and support vector regression (SVR), starting from the pose estimated with the nose region. Experiments were performed on the 3D Face Alignment in the Wild dataset, showing results broadly superior to pose-based alignment and comparable to the state-of-the-art. Keywords: face tracking; 3d face alignment; landmark refinement.
|
6 |
Técnicas probabilísticas aplicadas em algoritmos de aproximaçãoBordini, Camile Frazão January 2016 (has links)
Orientador : Prof. Dr. Renato José da Silva Carmo / Coorientador : Prof. Dr. André Luis Vignatti / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 25/11/2016 / Inclui referências : f. 91-94 / Área de concentração: Ciência da computação / Resumo: Pesquisadores e cientistas têm percebido cada vez mais que a aleatoriedade é um componente essencial na modelagem e análise da natureza. Na ciência da computação não é diferente: o uso da aleatoriedade e de métodos probabilísticos desempenham um papel importante na ciência moderna. No caso da computação, um dos grandes usos da teoria de probabilidade é através de algoritmos de aproximação, uma vez que estamos mais interessados na execução em tempo polinomial do algoritmo do que na necessidade do mesmo em obter a resposta ótima para um certo problema. As formas mais usuais com que a aleatoriedade pode se comportar na ciência da computação são através do uso de algoritmos aleatorizados na resolução de problemas computacionais e nas análises de caso médio dos algoritmos, sejam eles aleatorizados ou não. Os quatro problemas estudados na primeira parte desta dissertação fazem uso de algoritmos aleatorizados, onde o leitor poderá obter uma visão geral sobre como escolhas com base em probabilidades são feitas durante a execução de um algoritmo e também em como se dá a análise de caso médio dos mesmos. Na segunda parte é analisado uma versão do problema da localização de p-hub medianas em que propomos um algoritmo com uma (4_)-aproximação, que apesar de não utilizar técnicas aleatorizadas em sua execução, tem sua análise feita sob aspectos probabilísticos. Palavras-chave: problemas de otimização, algoritmos de aproximação, algoritmos aleatorizados, análise de caso médio, análise probabilística de algoritmos. / Abstract: Researchers and scientists have increasingly realized randomness is an essential component in modeling and analysis of nature. In computer science it is no different: the use of randomness and probabilistic methods play a important role in modern science. In the case of computing, one of the main utilities of probability theory is by approximation algorithms, once we are more interested in a polynomial time algorithm than obtaining the optimal answer to a certain problem. The most usual ways that randomness comes to bear in computer science are by randomized algorithms when solving computational problems and in the average case analysis of algorithms, whether or not randomized. The four problems studied in the first part of this document use randomized algorithms, on that reader will get an overview of how probability-based choices are made during the execution of an algorithm and how is your average case analysis too. In the second part, we analyzed a version of p-hub median problem which we propose an algorithm with an (4_)-approximation, that despite not using randomized techniques during execution, its analysis is based on probabilistic aspects. Keywords: optimization problems, approximation algorithms, randomized algorithms, average case analysis, probabilistic analysis of algorithms.
|
7 |
An architecture for mapping relational database to ontologyHuve, Cristiane Aparecida Gonçalves January 2017 (has links)
Orientadora : Profa. Leticia Mara Peres / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 01/02/2017 / Inclui referências : f. 80-85 / Resumo: Nos últimos anos tem sido propostos trabalhos sobre definições de mapeamento de um banco de dados para ontologias. Este trabalho de mestrado propõe a construção de uma arquitetura que viabiliza um processo de mapeamento automático de um banco de dados relacional para uma ontologia OWL. Para isto, faz uso de regras novas e existentes e tem como contribuições a nomeação dos elementos e sua eliminação quando duplicados, aumentando a legibilidade da ontologia gerada. Destacamos na arquitetura a estrutura de mapeamento de elementos, que permite manter uma rastreabilidade de origem e destino para verificações. Para validar a arquitetura e as regras propostas, um estudo de caso _e realizado utilizando um banco de dados de atendimento odontológico. Palavras-Chave: Banco de dados relacional. Ontologia. Mapeamento. / Abstract: In recent years a number of researches have been written on the topic of definitions of mapping of a database to ontology. This dissertation presents the proposal and the construction of an architecture which enables an automatic mapping process of relational database to OWL ontology. For this purpose, it makes use of new and existent rules and offers as contributions naming and elimination of duplicated elements, increasing the legibility of the generated ontology. We stand out the structure of element mapping, which allows to maintain a source-to-target traceability for verifications. Validating of proposed architecture and rules is made by a case study using a dental care database. Key-words: Relational database. Ontology. Mapping.
|
8 |
URF (Framework Unificado de Robótica) : proposta de interface para sistemas distribuídosBombardelli, Felipe Gustavo January 2017 (has links)
Orientador : Eduardo Todt / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 30/08/2017 / Inclui referências : p. 75-76 / Resumo: Em robótica, sistemas distribuídos têm sido utilizados para organizar os projetos de software em módulos, facilitando o desenvolvimento, compartilhamento, manutenção e testes. No entanto, esta modularização traz o ônus da comunicação entre os módulos, que deve ser padronizada e sincronizada, motivando o desenvolvimento de diversos frameworks com o objetivo de superar estas dificuldades. Ainda, o código dos módulos tem diversas linhas de overhead referentes ao framework utilizado, o que limita compartilhamento de seus módulos entre diferentes frameworks. Neste trabalho é proposto um framework que busca unificar a interface de acesso aos dados, o que permite encapsular diferentes frameworks como recursos. Como resultado, o framework proposto apresenta uma grande melhora na transparência de acesso aos dados, em relação aos frameworks existentes, já que diferentes estruturas podem ser acessadas pela mesma interface, possibilitando a criação de uma árvore de recursos bastante flexível. Palavras-chave: Sistemas distribuídos, frameworks de robótica, interfaces. / Abstract: On robotics, distributed systems have been used to organize the software projects in modules, facilitating the development, sharing, maintenance and testing. However, this modularization brings an increased complexity of communication between the modules, which must be synchronized and standardized, motivating the development of various efforts to overcome these difficulties. In addition, the module code has several overhead lines over the framework used, which limits sharing of its modules between different frameworks. This work proposes a framework that aims to unify the data access interface, which allows to encapsulate different frameworks in resources. As a result, the proposed framework presents a great improvement in the transparency of access to data, in relation to existing frameworks, since different structures can be accessed by the same interface, making possible the creation of a very flexible resource tree. Keywords: Distributed systems, robotics frameworks, interfaces.
|
9 |
Adapting the dynamic selection of classifiers approach for concept drift scenariosAlmeida, Paulo Ricardo Lisboa de January 2017 (has links)
Orientador : Luiz Eduardo S. de Oliveira / Coorientadores : Alceu de Souza Britto Jr. ; Robert Sabourin / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 09/11/2017 / Inclui referências : f. 143-154 / Resumo: Muitos ambientes podem sofrer com mudanças nas distribuições ou nas probabilidades a posteriori com o decorrer do tempo, em um problema conhecido como Concept Drift. Nesses cenários, é imperativa a implementação de algum mecanismo para adaptar o sistema de classificação às mudanças no ambiente a fim de minimizar o impacto na acurácia. Em um ambiente estático, é comum a utilização da Seleção Dinâmica de Classificadores (Dynamic Classifier Selection - DCS) para selecionar classificadores/ensembles customizados para cada uma das instâncias de teste de acordo com sua vizinhança em um conjunto de validação, onde a seleção pode ser vista como sendo dependente da região. Neste trabalho, a fim de tratar concept drifts, o conceito geral dos métodos de Seleção Dinâmica de Classificadores é estendido a fim de se tornar não somente dependente de região, mas também dependente do tempo. Através da adição da dependência do tempo, é demonstrado que a maioria dos métodos de Seleção Dinâmica de Classificadores podem ser adaptados para cenários contendo concept drifts, beneficiando-se da dependência de região, já que classificadores treinados em conceitos passados podem, em princípio, se manter competentes no conceito corrente em algumas regiões do espaço de características que não sofreram com mudanças. Neste trabalho a dependência de tempo para os métodos de Seleção Dinâmica é definida de acordo com o tipo de concept drift sendo tratado, que pode afetar apenas a distribuição no espaço de características ou as probabilidades a posteriori. Considerando as adaptações necessárias, o framework Dynse é proposto como uma ferramenta modular capaz de adaptar a Seleção Dinâmica de Classificadores para cenários contendo concept drits. Além disso, uma configuração padrão para o framework é proposta e um protocolo experimental, contendo sete Métodos de Seleção Dinâmica e doze problemas envolvendo concept drifts com diferentes propriedades, mostra que a Seleção Dinâmica de Classificadores pode ser adaptada para diferentes cenários contendo concept drifts. Quando comparado ao estado da arte, o framework Dynse, através da Seleção Dinâmica de Classificadores, se sobressai principalmente em termos de estabilidade. Ou seja, o método apresenta uma boa performance na maioria dos cenários, e requer quase nenhum ajuste de parâmetros. Key-words: Reconhecimento de Padrões. Concept Drift. Concept Drift Virtual. Concept Drift Real. Conjunto de Classificadores. Seleção Dinâmica de Classificadores. Acurácia Local. / Abstract: Many environments may suffer from distributions or a posteriori probabilities changes over time, leading to a phenomenon known as concept drift. In these scenarios, it is crucial to implement a mechanism to adapt the classification system to the environment changes in order to minimize any accuracy loss. Under a static environment, a popular approach consists in using a Dynamic Classifier Selection (DCS)-based method to select a custom classifier/ensemble for each test instance according to its neighborhood in a validation set, where the selection can be considered region-dependent. In order to handle concept drifts, in this work the general idea of the DCS method is extended to be also time-dependent. Through this time-dependency, it is demonstrated that most neighborhood DCS-based methods can be adapted to handle concept drift scenarios and take advantage of the region-dependency, since classifiers trained under previous concepts may still be competent in some regions of the feature space. The time-dependency for the DCS methods is defined according to the concept drift nature, which may define if the changes affects the a posteriori probabilities or the distributions only. By taking the necessary modifications, the Dynse framework is proposed in this work as a modular tool capable of adapting the DCS approach to concept drift scenarios. A default configuration for the Dynse framework is proposed and an experimental protocol, containing seven well-known DCS methods and 12 concept drift problems with different properties, shows that the DCS approach can adapt to different concept drift scenarios. When compared to state-of-the-art concept drift methods, the DCS-based approach comes out ahead in terms of stability, i.e., it performs well in most cases, and requires almost no parameter tuning. Key-words: Pattern Recognition. Concept Drift. Virtual Concept Drift. Real Concept Drift. Ensemble. Dynamic Classifier Selection. Local Accuracy.
|
10 |
Farma : uma ferramenta de autoria para objetos de aprendizagem de conceitos matemáticosMarczal, Diego January 2014 (has links)
Orientador : Prof. Dr. Alexandre Ibraim Direne / Coorientador : Prof. Dr. Andrey Ricardo Pimentel / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 24/11/2014 / Inclui referências / Resumo: Atualmente a tecnologia é fundamental para o processo de ensino e aprendizagem, sendo uma das abordagens de destaque o uso dos Objetos de Aprendizagem. A partir desta óptica, esta pesquisa desenvolveu uma ferramenta web de autoria para Objetos de Aprendizagem, que permite a manipulação dos registros de erros na prática docente por meio de um mecanismo que possibilita a retroação ao contexto de erros e acertos dos aprendizes.
Dessa forma, argumenta-se que o armazenamento, a visualização, a manipulação e a recuperação de registros de erros e também de acertos dos aprendizes podem trazer benefícios para o ensino e aprendizagem. Neste trabalho, o problema de construção de Objetos de Aprendizagem com ferramentas de autoria é exposto de maneira crítica. As principais limitações das abordagens atuais do ensino de matemática com Objetos de Aprendizagem são apontadas na resenha literária. Uma ferramenta web de autoria, chamada FARMA, com enfoque no conceito de mobilidade tecnológico-educacional, é apresentada como alternativa às abordagens pedagógicas existentes que se apoiam em aparatos tecnológicos.
A teoria ACT (Adaptive Control of Thought) embasou o modelo de criação e apresentação de exercícios do arcabouço proposto. O erro do aprendiz é destacado como abordagem cognitivista central da aprendizagem no contexto da atual versão da FARMA. A avaliação do processo de autoria foi realizada por meio de estudos empíricos focados na simplicidade de criar Objetos de Aprendizagem matemáticos. O experimento realizado para avaliação de uma nova abordagem de trabalhar com o erro dos aprendizes em Objetos de Aprendizagem se deteve na sua utilização por professores e aprendizes, assim como, nos potenciais ganhos para ensino e aprendizagem. Os resultados mostram que o arcabouço apresentado, com a proposta da utilização dos erros no processo de aquisição de conhecimento, fundamentalmente diferente das encontradas em ambientes educacionais, têm grandes potencialidades para o ensino e aprendizagem.
Palabras-chave: Retroação a Erros, Ambientes de Autoria, Objetos de Aprendizagem. / Abstract: Nowadays the technology is essencial to the process of teaching and learning and one of the
prominent approaches is the use of Learning Objects. Seeing that, the research developed
a web authoring tool to Learning Objects, which allows the manipulation of the error
records in the teaching practice through retroaction mechanism that allows going back
to the context of correct and wrongs interactions of apprentices. Thus, it is argued that
the storage, visualization, manipulation, and retrieval of errors records and also correct
interaction of the learners can bring benefits for teaching and learning. In this thesis,
the problem of building learning objects with authoring tools is exposed in a critical
way. The main limitations of current approaches to mathematics teaching with learning
objects are pointed out in the literature review. A web authoring tool, called FARMA,
focusing on the concept of techno-educational mobility, is presented as an alternative
to existing pedagogic approaches that rely on technological devices, the theory Adaptive
Control of Thought guided the fellowship model creation and presentation of the proposed
framework exercises. The mistakes of the learner are highlighted as a central cognitive
approach of learning in the current version of FARMA. The evaluation of the authoring
tool was done as an empirical study focused on simplicity to create mathematical Learning
Objects. The experiment conducted to evaluate a new approach of working with errors in
Learning Objects focused in the use by teachers and learners and their potential benefits
for teaching and learning. The results show that the framework developed with the
proposed use of errors in the acquisition of knowledge, fundamentally di
|
Page generated in 0.0546 seconds