• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 1
  • Tagged with
  • 13
  • 13
  • 11
  • 11
  • 11
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Uma solução em filtragem de informação para sistemas de recomendação baseada em análise de dados simbólicos

Leite Dantas Bezerra, Byron January 2004 (has links)
Made available in DSpace on 2014-06-12T15:58:32Z (GMT). No. of bitstreams: 2 arquivo4647_1.pdf: 2182294 bytes, checksum: 356178597c2bf16867ecf53d523ac6f8 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de Recomendação permitem que sites de Comércio Eletrônico sugiram produtos aos consumidores provendo informações relevantes que os ajudem no processo de compra. Para isso é necessária a aquisição e a adequada utilização do perfil do usuário. O processo de aquisição pode ser implícito (comprar um livro ou consultar um item em uma loja on-line) ou explícito (dar uma nota a um filme ou recomendar um artigo a um amigo). Já as soluções propostas para o segundo problema podem ser classificadas em duas categorias principais com relação ao tipo de filtragem adotada: Filtragem Baseada em Conteúdo (baseia-se na análise da correlação entre o conteúdo dos itens com o perfil do usuário) e Filtragem Colaborativa (baseada na correlação de perfis de usuários). Tais técnicas possuem limitações, como escalabilidade na primeira abordagem e latência na segunda. Contudo, elas são complementares, o que impulsiona o surgimento de filtragens híbridas, cujo foco é aproveitar o melhor de cada método. Todavia, as filtragens híbridas não superam completamente os problemas principais de ambos os métodos. A motivação deste trabalho surge do desafio de superar os problemas principais existentes nos métodos de Filtragem Baseada em Conteúdo. Para isso, o trabalho concentra-se no domínio de recomendação de filmes, caracterizado por atributos complexos, como sinopse, e no qual predomina uma aquisição explícita do perfil do usuário. Diante disso, o presente trabalho apresenta um novo método de filtragem de informação baseado nas teorias de Análise de Dados Simbólicos. Na abordagem proposta o perfil é modelado através de um conjunto de descrições simbólicas modais que sumarizam as informações dos itens previamente avaliados. Uma função de dissimilaridade que leva em conta as diferenças em posição e em conteúdo foi criada a fim de possibilitar a comparação entre um novo item e o perfil do usuário. Para avaliar o desempenho deste novo método foi modelado um ambiente experimental baseado no EachMovie e definida uma metodologia para avaliação dos resultados. Para fins de comparação é utilizada a filtragem de informação por conteúdo baseado no algoritmo dos k Vizinhos Mais Próximos (kNN). A construção de um ambiente experimental de avaliação do modelo permitiu diagnosticar estatisticamente o melhor desempenho da filtragem baseada em dados simbólicos modais, tanto em velocidade quanto em memória, com relação ao método baseado no kNN
2

Algoritmos array para filtragem de sistemas singulares / not available

Padoan Junior, Antonio Carlos 24 June 2005 (has links)
Esta dissertação apresenta novos resultados para a solução de problemas de implementação computacional na estimativa de sistemas singulares e sistemas Markovianos. São apresentados algoritmos alternativos para problemas de filtragem de maneira a minimizar problemas causados principalmente por erros de arredondamento e mal condicionamento de matrizes. O trabalho envolve basicamente algoritmos array e filtragem de informação para a estimativa de sistemas singulares nominais e robustos. Também é deduzido um algoritmo array para a filtragem de sistemas lineares sujeitos a saltos Markovianos. / This dissertation presents new results to solve computational implementation problems to estimate singular and Markovian systems. Alternative algorithms to handle computational filtering errors due rounding errors and ill-conditioned matrices are developed. This dissertation comprehends basically array algorithms and information filters for the estimate of nominal and robust singular systems. Also, it is developed an array algorithm for Markovian jump linear systems filtering.
3

Algoritmos array para filtragem de sistemas singulares / not available

Antonio Carlos Padoan Junior 24 June 2005 (has links)
Esta dissertação apresenta novos resultados para a solução de problemas de implementação computacional na estimativa de sistemas singulares e sistemas Markovianos. São apresentados algoritmos alternativos para problemas de filtragem de maneira a minimizar problemas causados principalmente por erros de arredondamento e mal condicionamento de matrizes. O trabalho envolve basicamente algoritmos array e filtragem de informação para a estimativa de sistemas singulares nominais e robustos. Também é deduzido um algoritmo array para a filtragem de sistemas lineares sujeitos a saltos Markovianos. / This dissertation presents new results to solve computational implementation problems to estimate singular and Markovian systems. Alternative algorithms to handle computational filtering errors due rounding errors and ill-conditioned matrices are developed. This dissertation comprehends basically array algorithms and information filters for the estimate of nominal and robust singular systems. Also, it is developed an array algorithm for Markovian jump linear systems filtering.
4

Soluções em personalização de conteúdo baseadas em classificadores simbólicos modais

Leite Dantas Bezerra, Byron 31 January 2008 (has links)
Made available in DSpace on 2014-06-12T15:48:46Z (GMT). No. of bitstreams: 1 license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Engenhos de Personalização são ferramentas úteis para se encontrar informações do interesse de uma pessoa de forma efetiva. Para isso, eles capturam informações sobre os usuários de um sistema para aprender sobre suas preferências. De posse destas informações, os Engenhos de Personalização adotam técnicas de filtragem de informação baseadas normalmente em classificadores com aprendizagem supervisionada. As técnicas mais comuns definem as correlações entre os usuários da comunidade e, a partir daí, disparam um processo conhecido popularmente como boca-à-boca . Outra técnica realiza uma filtragem com base no conteúdo descritivo dos itens no repositório como, o elenco e o gênero de um filme. Finalmente, existem abordagens híbridas que procuram combinar diferentes técnicas absorvendo o que há de melhor em cada uma. No presente trabalho fazemos uma leitura crítica do estado da arte relacionado aos Engenhos de Personalização e, a partir daí, apresentamos três novos métodos baseados em conceitos e ferramentas do domínio de Análise de Dados Simbólicos, em que cada um deles segue uma técnica diferente: o método Content Modal Based Filtering realiza filtragem de informação baseada no conteúdo; o método Social Modal Collaborative Filtering realiza filtragem colaborativa; e o método Hybrid Modal Based Filtering realiza filtragem híbrida. Definimos um processo de avaliação de desempenho das tecnologias de personalização e o aplicamos para efeito de comparação dos nossos métodos com abordagens clássicas. Em nossas análises consideramos dimensões relevantes para sistemas reais, mas pouco exploradas nos trabalhos atuais, como o impacto da quantidade de itens no perfil do usuário (associado ao Problema do Novo Usuário) e o tamanho da comunidade de usuários (associado ao Problema da Esparsidade). Nos experimentos realizados constatamos que duas de nossas abordagens de filtragem alcançaram desempenho em um cenário com pouca informação sobre o usuário e alta esparsidade pouco abaixo de 4% comparado ao desempenho obtido no cenário ideal. Nestas condições um dos métodos mais populares, a filtragem colaborativa com kNN, apresenta uma queda de desempenho de 18,5%
5

Uma plataforma de serviços de recomendação para bibliotecas digitais / A platform of recommendation services for digital libraries

Pedronette, Daniel Carlos Guimarães, 1983- 28 March 2008 (has links)
Orientador: Ricardo da Silva Torres / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-11T00:55:04Z (GMT). No. of bitstreams: 1 Pedronette_DanielCarlosGuimaraes_M.pdf: 7416929 bytes, checksum: be0fe860604d3545272fbe4bd4aaa8df (MD5) Previous issue date: 2008 / Resumo: Em virtude do crescimento acelerado de conteúdo nas mais diversas aplicações de bibliotecas digitais, a tarefa de localizar objetos digitais de interesse é cada vez mais desafiadora. Sob essa perspectiva, técnicas de recomendação procuram prover, de acordo com as preferências do usuário final, alternativas de escolha de objetos mantidos em uma biblioteca digital. Essa dissertação concentra-se em aspectos relacionados às técnicas de recomendação e suas interações com aplicações de bibliotecas digitais. Uma plataforma de serviços de recomendação, chamada RecS-DL, é proposta, visando ampliar as possibilidades de utilização das ferramentas de recomendação. A Plataforma RecS-DL apresentada é independente de domínio de aplicação, de tecnologias e técnicas de recomendação. O serviço de recomendação oferecido pode ser facilmente agregado a bibliotecas digitais clientes, assim como novos mecanismos de recomendação podem ser acoplados à plataforma de maneira dinâmica. Este trabalho também apresenta uma especificação formal da plataforma de serviços de recomendação proposta a partir do Arcabouço 5S. Para isso foram propostas novas definições e extensões de conceitos deste arcabouço. Por fim, são apresentados os resultados obtidos a partir de testes realizados com a plataforma. Experimentos foram conduzidos considerando bibliotecas digitais reais e avaliações por potenciais usuários. Resultados experimentais ratificam a hipótese de que a plataforma facilita a interoperabilidade de ferramentas de recomendação em bibliotecas digitais / Abstract: The increasing amount of data in the most diverse digital libraries applications makes the process of finding relevant digital objects a challenging task. From this perspective, recommendation techniques can provide, according to user preferences, relevant digital objects stored in a digital library.This dissertation focuses on recommendation techniques and their interactions with digital libraries applications. A platform for recommendation services, called RecS-DL, has been proposed to support the use of recommendation tools. The proposed RecS-DL Platform is independent of application domain, technology, and recommendation techniques. The recommendation services offered by the platform can be easily incorporated into digital libraries systems. Furthermore, new recommendation engines can also be plugged into the platform in a dynamic way. This work also presents a formal specification of the proposed platform, using the 5S Framework. To do this, new definitions and extensions of this framework are proposed. Finally, we present the results obtained from tests performed with the platform. Experiments were conducted considering real digital libraries and evaluations made by potential users. Experimental results confirm that the platform facilitates the interoperability of recommendation tools in digital libraries systems / Mestrado / Sistemas de Informação / Mestre em Ciência da Computação
6

UM MODELO DE SISTEMA DE FILTRAGEM HÍBRIDA PARA UM AMBIENTE COLABORATIVO DE ENSINO APRENDIZAGEM / A MODEL SYSTEM FOR A HYBRID COLLABORATIVE FILTERING LEARNING ENVIRONMENT OF EDUCATION

SANTOS, André Luis Silva dos 15 February 2008 (has links)
Made available in DSpace on 2016-08-17T14:52:38Z (GMT). No. of bitstreams: 1 Andre Luis Silva dos Santos.pdf: 7753143 bytes, checksum: 538ea307ce9dad0b071cd12c49ac05f0 (MD5) Previous issue date: 2008-02-15 / Nowadays, the World Wide Web (WWW) is an excellent source of information. However, open issues carry on. It´s difficult obtain relevant information in short time. Moreover, there is no accuracy for retrieving this information. Servers such as Google, Altavista and Cadê, can retrieve a huge amount of information. Nonetheless, the retrieved information could be not relevant. The information filtering systems arise to aim users in the searching for relevant information. This work proposes a hybrid model of filtering information based on content-based filtering and collaborative filtering. This model has been used into a collaborative learning system named NetClass and it was developed using the PASSI methodology. A case study done with CEFET´s students is presented as well. / A Web é uma excelente fonte de informação, mas um dos problemas que surgem com a grande disseminação de informações é a dificuldade de se obter informação relevante em tempo hábil e de forma precisa. Mecanismos que auxiliem o usuário na recuperação de informações tais como o Google.com, Altavista e Cadê, muitas das vezes retornam uma grande quantidade de conteúdo, sem garantir uma boa efetividade de recuperação, com excesso de informações recuperadas ou com informações irrelevantes. Os Sistemas de Filtragem de Informação surgem como alternativa de auxílio aos usuários na busca de informações relevantes. Este trabalho propõe a criação de um modelo de sistema de filtragem híbrido de informação baseados nos métodos: Filtragem Baseada em Conteúdo e Filtragem Colaborativa. O modelo proposto é aplicado a um ambiente colaborativo de ensinoaprendizagem, o NetClass, e foi desenvolvido com a metodologia PASSI. Um estudo de caso feito com alunos do CEFET-MA também é descrito.
7

UM MODELO DE RECUPERAÇÃO DE INFORMAÇÃO PARA A WEB SEMÂNTICA. / AN INFORMATION RETRIEVAL MODEL FOR THE SEMANTIC WEB.

SILVA, Fábio Augusto de Santana 18 May 2009 (has links)
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-29T14:17:25Z No. of bitstreams: 1 Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5) / Made available in DSpace on 2017-08-29T14:17:25Z (GMT). No. of bitstreams: 1 Fabio Augusto.pdf: 2319314 bytes, checksum: 7dc99465ac724efe228c61bb9dfafa80 (MD5) Previous issue date: 2009-05-18 / Several techniques for extracting meaning from text in order to construct more accurate internal representations of both queries and information items in retrieval systems have been already proposed. However, there is a lack of semantic retrieval models to provide appropriate abstractions of these techniques. This work proposes a knowledge--based information retrieval model that explores the semantic content of information items . The internal representation of information items is based on user interest groups, called “semantic cases”. The model also defines a criteria for retrieve information items and a function for ordering the results that uses similarity measures based on semantic distance between semantic cases items. The model was instantiated by a sample system built upon the tributary legal domain using the specialization of the ONTOJURIS, a generic legal ontology, called ONTOTRIB. Legal normative instruments can be instantiated in a knowledge base by ONTOTRIB classes. The results obtained for this specific domain showed an improvement in the precision rates compared to a keyword-based system. / Várias técnicas para extrair significado de textos com o objetivo de construir representações internas mais precisas, tanto para itens de informação quanto para consultas em sistemas de recuperação já foram propostas. Contudo, faltam modelos de recuperação baseados em semântica que especifiquem abstrações apropriadas para essas técnicas. Este trabalho apresenta um modelo de recuperação baseado no conhecimento que explora o conteúdo semântico dos itens de informação. A representação interna dos itens de informação é baseada em grupos de interesse do usuário chamados de “casos semânticos”. O modelo também define um critério para a recuperação dos itens de informação e uma função para ordenar os resultados obtidos que utiliza medidas de similaridade baseadas na distância semântica entre os elementos das representações internas. O modelo foi instanciado em um sistema construído para o domínio jurídico tributário usando a ontologia ONTOTRIB, uma extensão da ontologia genérica ONTOJURIS, que permite a instanciação de instrumentos jurídico-tributários. Os resultados obtidos nos testes realizados neste domínio específico apontaram uma melhoria da precisão em relação a um sistema baseado em palavras-chave.
8

A unified framework for design, deployment, execution, and recommendation of machine learning experiments = Uma ferramenta unificada para projeto, desenvolvimento, execução e recomendação de experimentos de aprendizado de máquina / Uma ferramenta unificada para projeto, desenvolvimento, execução e recomendação de experimentos de aprendizado de máquina

Werneck, Rafael de Oliveira, 1989- 25 August 2018 (has links)
Orientadores: Ricardo da Silva Torres, Anderson de Rezende Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-25T19:48:27Z (GMT). No. of bitstreams: 1 Werneck_RafaeldeOliveira_M.pdf: 2395829 bytes, checksum: 8f190aeb6dbafb841d0c03f7d7099041 (MD5) Previous issue date: 2014 / Resumo: Devido ao grande crescimento do uso de tecnologias para a aquisição de dados, temos que lidar com grandes e complexos conjuntos de dados a fim de extrair conhecimento que possa auxiliar o processo de tomada de decisão em diversos domínios de aplicação. Uma solução típica para abordar esta questão se baseia na utilização de métodos de aprendizado de máquina, que são métodos computacionais que extraem conhecimento útil a partir de experiências para melhorar o desempenho de aplicações-alvo. Existem diversas bibliotecas e arcabouços na literatura que oferecem apoio à execução de experimentos de aprendizado de máquina, no entanto, alguns não são flexíveis o suficiente para poderem ser estendidos com novos métodos, além de não oferecerem mecanismos que permitam o reuso de soluções de sucesso concebidos em experimentos anteriores na ferramenta. Neste trabalho, propomos um arcabouço para automatizar experimentos de aprendizado de máquina, oferecendo um ambiente padronizado baseado em workflow, tornando mais fácil a tarefa de avaliar diferentes descritores de características, classificadores e abordagens de fusão em uma ampla gama de tarefas. Também propomos o uso de medidas de similaridade e métodos de learning-to-rank em um cenário de recomendação, para que usuários possam ter acesso a soluções alternativas envolvendo experimentos de aprendizado de máquina. Nós realizamos experimentos com quatro medidas de similaridade (Jaccard, Sorensen, Jaro-Winkler e baseada em TF-IDF) e um método de learning-to-rank (LRAR) na tarefa de recomendar workflows modelados como uma sequência de atividades. Os resultados dos experimentos mostram que a medida Jaro-Winkler obteve o melhor desempenho, com resultados comparáveis aos observados para o método LRAR. Em ambos os casos, as recomendações realizadas são promissoras, e podem ajudar usuários reais em diferentes tarefas de aprendizado de máquina / Abstract: Due to the large growth of the use of technologies for data acquisition, we have to handle large and complex data sets in order to extract knowledge that can support the decision-making process in several domains. A typical solution for addressing this issue relies on the use of machine learning methods, which are computational methods that extract useful knowledge from experience to improve performance of target applications. There are several libraries and frameworks in the literature that support the execution of machine learning experiments. However, some of them are not flexible enough for being extended with novel methods and they do not support reusing of successful solutions devised in previous experiments made in the framework. In this work, we propose a framework for automating machine learning experiments that provides a workflow-based standardized environment and makes it easy to evaluate different feature descriptors, classifiers, and fusion approaches in a wide range of tasks. We also propose the use of similarity measures and learning-to-rank methods in a recommendation scenario, in which users may have access to alternative machine learning experiments. We performed experiments with four similarity measures (Jaccard, Sorensen, Jaro-Winkler, and a TF-IDF-based measure) and one learning-to-rank method (LRAR) in the task of recommending workflows modeled as a sequence of activities. Experimental results show that Jaro-Winkler yields the highest effectiveness performance with comparable results to those observed for LRAR. In both cases, the recommendations performed are very promising and might help real-world users in different daily machine learning tasks / Mestrado / Ciência da Computação / Mestre em Ciência da Computação
9

Indução de filtros lingüisticamente motivados na recuperação de informação / Linguistically motivated filter induction in information retrieval

Arcoverde, João Marcelo Azevedo 17 April 2007 (has links)
Apesar dos processos de recuperação e filtragem de informação sempre terem usado técnicas básicas de Processamento de Linguagem Natural (PLN) no suporte à estruturação de documentos, ainda são poucas as indicações sobre os avanços relacionados à utilização de técnicas mais sofisticadas de PLN que justifiquem o custo de sua utilização nestes processos, em comparação com as abordagens tradicionais. Este trabalho investiga algumas evidências que fundamentam a hipótese de que a aplicação de métodos que utilizam conhecimento linguístico é viável, demarcando importantes contribuições para o aumento de sua eficiência em adição aos métodos estatásticos tradicionais. É proposto um modelo de representação de texto fundamentado em sintagmas nominais, cuja representatividade de seus descritores é calculada utilizando-se o conceito de evidência, apoiado em métodos estatísticos. Filtros induzidos a partir desse modelo são utilizados para classificar os documentos recuperados analisando-se a relevância implícita no perfil do usuário. O aumento da precisão (e, portanto, da eficácia) em sistemas de Recuperação de Informação, conseqüência da pós-filtragem seletiva de informações, demonstra uma clara evidência de como o uso de técnicas de PLN pode auxiliar a categorização de textos, abrindo reais possibilidades para o aprimoramento do modelo apresentado / Although Information Retrieval and Filtering tasks have always used basic Natural Language Processing (NLP) techniques for supporting document structuring, there is still space for more sophisticated NLP techniques which justify their cost when compared to the traditional approaches. This research aims to investigate some evidences that justify the hypothesis on which the use of linguistic-based methods is feasible and can bring on relevant contributions to this area. In this work noun phrases of a text are used as descriptors whose evidence is calculated by statistical methods. Filters are then induced to classify the retrieved documents by measuring their implicit relevance presupposed by an user profile. The increase of precision (efficacy) in IR systems as a consequence of the use of NLP techniques for text classification in the filtering task is an evidence of how this approach can be further explored
10

Group recommendation strategies based on collaborative filtering

Ricardo de Melo Queiroz, Sérgio January 2003 (has links)
Made available in DSpace on 2014-06-12T15:59:01Z (GMT). No. of bitstreams: 2 arquivo4812_1.pdf: 2843132 bytes, checksum: cf053779fad5d73c77a2b107542256b3 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003 / Ricardo de Melo Queiroz, Sérgio; de Assis Tenório Carvalho, Francisco. Group recommendation strategies based on collaborative filtering. 2003. Dissertação (Mestrado). Programa de Pós-Graduação em Ciência da Computação, Universidade Federal de Pernambuco, Recife, 2003.

Page generated in 0.0937 seconds