• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 9
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 66
  • 66
  • 54
  • 42
  • 28
  • 25
  • 17
  • 11
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Avaliação e descoberta de políticas de ação para agentes autônomos adaptativos / Richardson Ribeiro ; orientador, Fabrício Enembreck ; co-orientador, Alessandro L. Koerich

Ribeiro, Richardson January 2006 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2006 / Inclui bibliografia / Esta dissertação apresenta uma nova metodologia, denominada MAP, para avaliar o desempenho do algoritmo Q-Learning e outras técnicas de estimação de políticas de ação para agentes autônomos adaptativos. A avaliação de políticas de ação produzidas por esse
42

Abordagem de aprendizado de máquina para análise de padrões neuromorfométricos no primeiro episódio psicótico e esquizofrenia

Moura, Adriana Miyazaki de January 2016 (has links)
Orientador: Prof. Dr. João Ricardo Sato / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Neurociência e Cognição, 2016. / Diversos estudos reportaram alterações cerebrais ao longo do curso da esquizofrenia. Até mesmo nos estágios incipientes, como no Primeiro Episódio Psicótico (PEP). Métodos de aprendizagem de máquina podem ser utilizados para análise multivariada de dados de neuroimagem, porém a grande maioria dos estudos os emprega principalmente para previsões entre grupos, como discriminar pacientes com esquizofrenia de controles saudáveis. No presente estudo, foi aplicado o método maximum entropy linear discriminant analysis (MLDA) com o objetivo de buscar um melhor entendimento dos estágios da esquizofrenia. Foram analisados dados neuro-volumétricos provenientes de imagens de ressonância magnética de 143 pacientes crônicos com esquizofrenia, 32 pacientes PEP e 82 controles saudáveis. O método projeta as características multivariadas de um sujeito em um sub-espaço discriminante univariado, provendo um "escore de esquizofrenia". Inicialmente, a performance do MLDA na tarefa de discriminação entre pacientes com esquizofrenia de controles foi avaliada e foram identificados as regiões cerebrais que mais contribuíram para a classificação. Por fim, foram utilizados os escores provenientes do MLDA para realizar uma comparação entre os padrões volumétricos de pacientes PEP e pacientes com esquizofrenia e controles saudáveis. A classificação atingiu uma acurácia balanceada de 72.96%. O grupo PEP apresentou uma distribuição de escores mais similar aos pacientes com esquizofrenia em comparação aos controles saudáveis. Após repetição das análises excluindo as regiões afetadas por medicação anti-psicótica, a acurácia permaneceu aproximadamente a mesma (73.66%), porém os escores do PEP se tornaram mais similares ao grupo controle. Os resultados do presente estudo sugerem que as primeiras estruturas alteradas no PEP podem ser as regiões afetadas por anti-psicóticos. Entre as estruturas mais discriminantes na classificação se encontravam, principalmente, estruturas relacionadas ao sistema límbico e a circuiteria envolvida em comportamentos orientados a objetivos. Em conclusão, nossos resultados sugerem a importância de considerar os efeitos dos anti-psicóticos, a fim de entender os substratos neurais envolvidos na esquizofrenia. / Several studies reported brain changes along the course of the schizophrenia. Even in the early stages, such as first episode psychosis (FEP). Machine learning methods can be applied for multivariate analysis of neuroimaging data, however, they have been employed in most of the studies with main concern in group prediction, such as discriminating schizophrenic patients from healthy controls. In the present study we applied the maximum entropy linear discriminant analysis (MLDA) aiming to a better comprehension of the schizophrenia stages. We analysed brain structures volumetric data from MRI images of 143 patients with chronic schizophrenia, 32 FEP patients and 82 healthy controls. The method projects the multivariate characteristics of a subject onto a univariate discriminant subspace, providing a "schizophrenia score". First, the performance of MLDA in the discrimination task between schizophrenia patients from controls was evaluated and we identified the brain regions that most contribuited to the classification. Finally, we utilized the scores provided by MLDA to make a comparison among the volumetric patterns of FEP patients and schizophrenic patients and healthy controls. The classification achieved a balanced accuracy of 72.96%. We found that the FEP group had a score distribution more similar to patients with schizophrenia in comparison with healthy subjects. After the exclusion of regions affected by antipsychotic medication and repeating MLDA analysis, the accuracy remained approximately the same (73.66%), but the FEP scores became more similar to control group. Our results suggest that the first structures altered in FEP might be the regions affected by antipsychotics. Structures related to the limbic system and the circuitry involved in goal-directed behaviours were the most discriminant regions in the classification. In conclusion, our results suggest the importance of taking into account the brain structural effects of antipsychotic drugs in order to understand the neural substrates involved in schizophrenia.
43

Redução no esforço de interação em segmentação de imagens digitais através de aprendizagem computacional / Reducing the interaction effort in digital image segmentation through machine learning

Bruno Klava 08 October 2014 (has links)
A segmentação é um passo importante em praticamente todas as tarefas que envolvem processamento de imagens digitais. Devido à variedade de imagens e diferentes necessidades da segmentação, a automação da segmentação não é uma tarefa trivial. Em muitas situações, abordagens interativas, nas quais o usuário pode intervir para guiar o processo de segmentação, são bastante úteis. Abordagens baseadas na transformação watershed mostram-se adequadas para a segmentação interativa de imagens: o watershed a partir de marcadores possibilita que o usuário marque as regiões de interesse na imagem; o watershed hierárquico gera uma hierarquia de partições da imagem sendo analisada, hierarquia na qual o usuário pode navegar facilmente e selecionar uma particular partição (segmentação). Em um trabalho prévio, propomos um método que integra as duas abordagens de forma que o usuário possa combinar os pontos fortes dessas duas formas de interação intercaladamente. Apesar da versatilidade obtida ao se integrar as duas abordagens, as hierarquias construídas dificilmente contêm partições interessantes e o esforço de interação necessário para se obter um resultado desejado pode ser muito elevado. Nesta tese propomos um método, baseado em aprendizagem computacional, que utiliza imagens previamente segmentadas para tentar adaptar uma dada hierarquia de forma que esta contenha partições mais próximas de uma partição de interesse. Na formulação de aprendizagem computacional, diferentes características da imagem são associadas a possíveis contornos de regiões, e esses são classificados como contornos que devem ou não estar presentes na partição final por uma máquina de suporte vetorial previamente treinada. A hierarquia dada é adaptada de forma a conter uma partição que seja consistente com a classificação obtida. Essa abordagem é particularmente interessante em cenários nos quais lotes de imagens similares ou sequências de imagens, como frames em sequências de vídeo ou cortes produzidas por exames de diagnóstico por imagem, precisam ser segmentadas. Nesses casos, é esperado que, a cada nova imagem a ser segmentada, o esforço de interação necessário para se obter a segmentação desejada seja reduzido em relação ao esforço que seria necessário com o uso da hierarquia original. Para não dependermos de experimentos com usuários na avaliação da redução no esforço de interação, propomos e utilizamos um modelo de interação que simula usuários humanos no contexto de segmentação hierárquica. Simulações deste modelo foram comparadas com sequências de interação observadas em experimentos com usuários humanos. Experimentos com diferentes lotes e sequências de imagens mostram que o método é capaz de reduzir o esforço de interação. / Segmentation is an important step in nearly all tasks involving digital image processing. Due to the variety of images and segmentation needs, automation of segmentation is not a trivial task. In many situations, interactive approaches in which the user can intervene to guide the segmentation process, are quite useful. Watershed transformation based approaches are suitable for interactive image segmentation: the watershed from markers allows the user to mark the regions of interest in the image; the hierarchical watershed generates a hierarchy of partitions of the image being analyzed, hierarchy in which the user can easily navigate and select a particular partition (segmentation). In a previous work, we have proposed a method that integrates the two approaches so that the user can combine the strong points of these two forms of interaction interchangeably. Despite the versatility obtained by integrating the two approaches, the built hierarchies hardly contain interesting partitions and the interaction effort needed to obtain a desired outcome can be very high. In this thesis we propose a method, based on machine learning, that uses images previously segmented to try to adapt a given hierarchy so that it contains partitions closer to the partition of interest. In the machine learning formulation, different image features are associated to the possible region contours, and these are classified as ones that must or must not be present in the final partition by a previously trained support vector machine. The given hierarchy is adapted to contain a partition that is consistent with the obtained classification. This approach is particularly interesting in scenarios where batches of similar images or sequences of images, such as frames in video sequences or cuts produced by imaging diagnosis procedures, need to be segmented. In such cases, it is expected that for each new image to be segmented, the interaction effort required to achieve the desired segmentation is reduced relative to the effort that would be required when using the original hierarchy. In order to do not depend on experiments with users in assessing the reduction in interaction effort, we propose and use an interaction model that simulates human users in the context of hierarchical segmentation. Simulations of this model were compared with interaction sequences observed in experiments with humans users. Experiments with different bacthes and image sequences show that the method is able to reduce the interaction effort.
44

Um processo para modelagem e aplicação de técnicas computacionais para detecção de fraudes em transações eletrônicas / A process for modeling and application of computational techniques for fraud detection in electronic transactions

Gabriel Preti Santiago 08 May 2014 (has links)
Nos últimos anos, tem-se observado um aumento significativo no volume de transações financeiras realizadas pela Internet. Esse crescimento no volume financeiro, associado à fragilidade inerente à ausência de verificações básicas, possíveis somente em transações do mundo físico, tem atraído a atenção de pessoas com o objetivo de obter vantagens financeiras de forma ilícita. Devido aos prejuízos causados pelas fraudes, surgiram empresas de pagamento online com o objetivo de tornar as transações de compra e venda na Internet mais seguras. Essas empresas atuam como um intermediário das transações e assumem os riscos associados, mostrando-se ser esse um negócio de alto risco. Dado o alto volume de transações com as quais essas empresas precisam lidar, torna-se clara a necessidade de métodos computacionais para detecção de transações fraudulentas, visto que a utilização estrita de verificações manuais é inviável para lidar com tal volume de transações. Essa tarefa de análise e identificação de transações fraudulentas pode ser vista como um problema computacional de classificação, sendo então aplicáveis técnicas de classificação, aprendizado computacional e mineração de dados. Porém, dada a complexidade do problema, a aplicação de técnicas computacionais só é possível após um profundo entendimento do problema e a definição de uma modelagem eficiente associada a um processo consistente e abrangente, capaz de lidar com todas as etapas necessárias para a análise eficiente de uma transação. Face a isso, o presente trabalho propõe uma abordagem abrangente para tratar o problema da fraude nesse novo mercado de intermediação de pagamentos online utilizando como base um processo já muito bem estabelecido na indústria. Abordaremos mais especificamente uma das fases desse processo, que se refere justamente a utilização de ferramentas computacionais para a detecção das fraudes, e apresentaremos um sub-processo que envolve a utilização de várias ferramentas para o tratamento do ponto de vista computacional do problema de detecção de fraudes. Para a validação dos resultados da proposta, utilizaremos uma enorme quantidade de dados reais disponibilizados por uma grande empresa do setor de intermediação de pagamentos online que colaborou com nossa pesquisa. / In recent years, there has been a significant increase in the volume of electronic transactions in the Web. This growth in trading volume, associated with the risks caused by the absence of basic checks, possible only in transactions of the physical world, has attracted the attention of people with the intention of taking advantage to obtain illicit financial benefits. Due to the injuries caused by fraud, online payment service companies emerged, with the goal of making Web transactions safer. These companies act as an intermediary between buyers and sellers, assuming all the risks, and so it is clear that it is a high-risk business. Given the high volume of transactions with which these companies must deal, it is clear the need for computational methods for detecting fraudulent transactions, as the strict use of manual checks is infeasible to handle such a volume. The task of analysis and identification of fraudulent transactions can be seen as a classification problem, and so classification, data mining and machine learning techniques can be applied to it. However, given the complexity of the problem, the application of computational techniques is only possible after a thorough understanding of the problem and the definition of an efficient model, associated with a consistent and comprehensive process which would be able to handle all the steps needed to analyze a transaction in an efficient way. Given this scenario, this work proposes a comprehensive approach to address the problem of fraud in this new business of online payment intermediation, using as basis a process already established in the industry. We will discuss more specifically one of the phases of this process, which refers to the use of computational tools to detect frauds, and we will present a sub-process using several tools to deal with the problem from a computational point of view. To validate our results, we will use a huge amount of real data provided by an important company of the online payment industry, which cooperated with our research.
45

Uso de heurísticas para a aceleração do aprendizado por reforço. / Heuristically acelerated reinforcement learning.

Bianchi, Reinaldo Augusto da Costa 05 April 2004 (has links)
Este trabalho propõe uma nova classe de algoritmos que permite o uso de heurísticas para aceleração do aprendizado por reforço. Esta classe de algoritmos, denominada \"Aprendizado Acelerado por Heurísticas\" (\"Heuristically Accelerated Learning\" - HAL), é formalizada por Processos Markovianos de Decisão, introduzindo uma função heurística H para influenciar o agente na escolha de suas ações, durante o aprendizado. A heurística é usada somente para a escolha da ação a ser tomada, não modificando o funcionamento do algoritmo de aprendizado por reforço e preservando muitas de suas propriedades. As heurísticas utilizadas nos HALs podem ser definidas a partir de conhecimento prévio sobre o domínio ou extraídas, em tempo de execução, de indícios que existem no próprio processo de aprendizagem. No primeiro caso, a heurística é definida a partir de casos previamente aprendidos ou definida ad hoc. No segundo caso são utilizados métodos automáticos de extração da função heurística H chamados \"Heurística a partir de X\" (\"Heuristic from X\"). Para validar este trabalho são propostos diversos algoritmos, entre os quais, o \"Q-Learning Acelerado por Heurísticas\" (Heuristically Accelerated Q-Learning - HAQL), que implementa um HAL estendendo o conhecido algoritmo Q-Learning, e métodos de extração da função heurística que podem ser usados por ele. São apresentados experimentos utilizando os algoritmos acelerados por heurísticas para solucionar problemas em diversos domínios - sendo o mais importante o de navegação robótica - e as heurísticas (pré-definidas ou extraídas) que foram usadas. Os resultados experimentais permitem concluir que mesmo uma heurística muito simples resulta em um aumento significativo do desempenho do algoritmo de aprendizado de reforço utilizado. / This work presents a new class of algorithms that allows the use of heuristics to speed up Reinforcement Learning (RL) algorithms. This class of algorithms, called \"Heuristically Accelerated Learning\" (HAL) is modeled using a convenient mathematical formalism known as Markov Decision Processes. To model the HALs a heuristic function that influences the choice of the actions by the agent during its learning is defined. As the heuristic is used only when choosing the action to be taken, the RL algorithm operation is not modified and many proprieties of the RL algorithms are preserved. The heuristic used in the HALs can be defined from previous knowledge about the domain or be extracted from clues that exist in the learning process itself. In the first case, the heuristic is defined from previously learned cases or is defined ad hoc. In the second case, automatic methods for the extraction of the heuristic function H called \"Heuristic from X\" are used. A new algorithm called Heuristically Accelerated Q-Learning is proposed, among others, to validate this work. It implements a HAL by extending the well-known RL algorithm Q-Learning. Experiments that use the heuristically accelerated algorithms to solve problems in a number of domains - including robotic navigation - are presented. The experimental results allow to conclude that even a very simple heuristic results in a significant performance increase in the used reinforcement learning algorithm.
46

Aplicação de algoritmos de agrupamento para descoberta de padrões de defeito em software JavaScript / Application of clustering algorithms for discovering bug patterns in JavaScript software

Macedo, Charles Mendes de 26 October 2018 (has links)
As aplicações desenvolvidas com a linguagem JavaScript, vêm aumentando a cada dia, não somente aquelas na web (client-side), como também as aplicações executadas no servidor (server-side) e em dispositivos móveis (mobile). Neste contexto, a existência de ferramentas para identicação de defeitos e code smells é fundamental, para auxiliar desenvolvedores durante a evoluçãp destas aplicações. A maioria dessas ferramentas utiliza uma lista de defeitos predenidos que são descobertos a partir da observação das melhores práticas de programação e a intuição do desenvolvedor. Para melhorar essas ferramentas, a descoberta automática de defeitos e code smells é importante, pois permite identicar quais ocorrem realmente na prática e de forma frequente. Uma ferramenta que implementa uma estratégia semiautomática para descobrir padrões de defeitos através de agrupamentos das mudanças realizadas no decorrer do desenvolvimento do projeto é a ferramenta BugAID. O objetivo deste trabalho é contribuir nessa ferramenta estendendo-a com melhorias na abordagem da extração de características, as quais são usadas pelos algoritmos de clusterização. O módulo estendido encarregado da extração de características é chamado de BugAIDExtract+ +. Além disso, neste trabalho é realizada uma avaliação de vários algoritmos de clusterização na descoberta dos padrõs de defeitos em software JavaScript / Applications developed with JavaScript language are increasing every day, not only for client-side, but also for server-side and for mobile devices. In this context, the existence of tools to identify faults is fundamental in order to assist developers during the evolution of their applications. Most of these tools use a list of predened faults that are discovered from the observation of the programming best practices and developer intuition. To improve these tools, the automatic discovery of faults and code smells is important because it allows to identify which ones actually occur in practice and frequently. A tool that implements a semiautomatic strategy for discovering bug patterns by grouping the changes made during the project development is the BugAID. The objective of this work is to contribute to the BugAID tool, extending this tool with improvements in the extraction of characteristics to be used by the clustering algorithm. The extended module that extracts the characteristics is called BE+. Additionally, an evaluation of the clustering algorithms used for discovering fault patterns in JavaScript software is performed
47

Algoritmos Evolutivos aplicados ao Classificador baseado em Segmentos de Reta / Evolutive Algorithms applied to the Straight Line Segment Classifier

Rodríguez, Rosario Alejandra Medina 03 July 2012 (has links)
Nos ultimos anos o uso de tecnicas de aprendizado computacional tornou se uma das tarefas comumente realizadas, pois tem inumeras aplicacoes de reconhecimento de padroes, tais como: reco- nhecimento de voz, classificacao de texto, reconhecimento facial, diagnostico por imagens medicas, entre outras. Dessa forma, um grande numero de tecnicas que lidam com este tipo de problema tem sido desenvolvido ate o momento. Neste trabalho apresentamos uma alternativa para melhorar a taxa acerto de classificacao do classificador binario SLS, que apresentou resultados comparaveis com as SVMs. Nesse metodo, o Gradiente Descendente e utilizado para otimizar a posicao final dos conjuntos de segmentos de reta que representarao cada classe. Embora convirja rapidamente a um valor otimo, muitas vezes e possivel o algoritmo parar em uma regiao de otimos locais, que nao representa o minimo global. Dado esse problema, foram utilizados diferentes algoritmos evolutivos em combinacao com o Gradiente Descendente a fim de melhorar a acuracia do classificador SLS. Adicionalmente a aplicacao de algoritmos evolutivos na fase de treinamento do classificador SLS, foram exploradas duas propostas: (i) explorar o uso de diferente numero de segmentos de reta para representar a distribuicao de dados de cada classe. Dado que no algoritmo original do metodo SLS o numero de segmentos de reta e igual para cada classe, o qual pode significar alguma perda de acuracia ou sobreposicao dos segmentos de reta; (ii) estimar a melhor combinacao de segmentos de reta a serem usados para cada classe. O uso de diferentes quantidades de segmentos de reta por classe pode ser de ajuda na obtencao de melhores porcentagens de acerto, mas determinar uma quantidade otima que permita representar cada classe, e um trabalho dificil. Assim, usamos o algoritmo X-Means, que e um algoritmo de agrupamento, para estimar o numero de segmentos de reta. As propostas exibiram bons resultados que possibilitam a aplicacao do classificador SLS, com um algoritmo de treinamento hibrido, em problemas reais. / During the past years, the use of machine learning techniques have become into one of the most frequently performed tasks, due to the large amount of pattern recognition applications such as: voice recognition, text classification, face recognition, medical image diagnosis, among others. Thus, a great number of techniques dealing with this kind of problem have been developed until now. In this work, we propose an alternative training algorithm to improve the accuracy of the SLS binary Classifier, which produces good results that can be compared to Support Vector Machines. In that classifier, the Gradient Descent method has been used to optimize the final positions of two sets of straight line segments that represent each class. Although, this method quickly converges to an optimum, it is possible that the algorithm stops at a local optimum region, which does not guarantee a global minimum. Given that problem, we combine evolutive optimization algorithms with the gradient descent method to improve the accuracy of the SLS Classifier. In addition to our proposal of using evolutive algorithms, we also developed two proposals: (i) we explore the use of different number of straight line segments to represent the data distribution. Since the original SLS classifier algorithm uses the same number of segments for each class, which could lead to a loss of accuracy or straight line segments overlapping. So, using different number of segments could be the way to improve the accuracy; (ii) estimate the best combination of straight line segments to represent each class. Finding an optimal combination, can be a very difficult problem, so we propose the X-Means algorithm to determine the number of segments. The proposed methodology showed good results which can be used to solve some other real problems with the SLS classifier using the proposed hybrid training algorithm.
48

Automatização do processo de seleção de transformações para otimização do tempo de execução por meio de aprendizado de máquina no arcabouço da LLVM. / Transformation selection process automation for execution time optimization through machine learning on LLVM framework.

Sabaliauskas, Jorge Augusto 28 April 2015 (has links)
A rápida evolução do hardware demanda uma evolução contínua dos compiladores. Um processo de ajuste deve ser realizado pelos projetistas de compiladores para garantir que o código gerado pelo compilador mantenha uma determinada qualidade, seja em termos de tempo de processamento ou outra característica pré-definida. Este trabalho visou automatizar o processo de ajuste de compiladores por meio de técnicas de aprendizado de máquina. Como resultado os planos de compilação obtidos usando aprendizado de máquina com as características propostas produziram código para programas cujos valores para os tempos de execução se aproximaram daqueles seguindo o plano padrão utilizado pela LLVM. / The fast evolution of hardware demands a continue evolution of the compilers. Compiler designers must perform a tuning process to ensure that the code generated by the compiler maintain a certain quality, both in terms of processing time or another preset feature. This work aims to automate compiler adjustment process through machine learning techniques. As a result the compiler plans obtained using machine learning with the proposed features had produced code for programs whose values for the execution times approached those following the standard plan used by LLVM.
49

Modelos de tópicos na classificação automática de resenhas de usuários. / Topic models in user review automatic classification.

Mauá, Denis Deratani 14 August 2009 (has links)
Existe um grande número de resenhas de usuário na internet contendo valiosas informações sobre serviços, produtos, política e tendências. A compreensão automática dessas opiniões é não somente cientificamente interessante, mas potencialmente lucrativa. A tarefa de classificação de sentimentos visa a extração automática das opiniões expressas em documentos de texto. Diferentemente da tarefa mais tradicional de categorização de textos, na qual documentos são classificados em assuntos como esportes, economia e turismo, a classificação de sentimentos consiste em anotar documentos com os sentimentos expressos no texto. Se comparados aos classificadores tradicionais, os classificadores de sentimentos possuem um desempenho insatisfatório. Uma das possíveis causas do baixo desempenho é a ausência de representações adequadas que permitam a discriminação das opiniões expressas de uma forma concisa e própria para o processamento de máquina. Modelos de tópicos são modelos estatísticos que buscam extrair informações semânticas ocultas na grande quantidade de dados presente em coleções de texto. Eles representam um documento como uma mistura de tópicos, onde cada tópico é uma distribuição de probabilidades sobre palavras. Cada distribuição representa um conceito semântico implícito nos dados. Modelos de tópicos, as palavras são substituídas por tópicos que representam seu significado de forma sucinta. De fato, os modelos de tópicos realizam uma redução de dimensionalidade nos dados que pode levar a um aumento do desempenho das técnicas de categorização de texto e recuperação de informação. Na classificação de sentimentos, eles podem fornecer a representação necessária através da extração de tópicos que representem os sentimentos expressos no texto. Este trabalho dedica-se ao estudo da aplicação de modelos de tópicos na representação e classificação de sentimentos de resenhas de usuário. Em particular, o modelo Latent Dirichlet Allocation (LDA) e quatro extensões (duas delas desenvolvidas pelo autor) são avaliados na tarefa de classificação de sentimentos baseada em múltiplos aspectos. As extensões ao modelo LDA permitem uma investigação dos efeitos da incorporação de informações adicionais como contexto, avaliações de aspecto e avaliações de múltiplos aspectos no modelo original. / There is a large number of user reviews on the internet with valuable information on services, products, politics and trends. There is both scientific and economic interest in the automatic understanding of such data. Sentiment classification is concerned with automatic extraction of opinions expressed in user reviews. Unlike standard text categorization tasks that deal with the classification of documents into subjects such as sports, economics and tourism, sentiment classification attempts to tag documents with respect to the feelings they express. Compared to the accuracy of standard methods, sentiment classifiers have shown poor performance. One possible cause of such a poor performance is the lack of adequate representations that lead to opinion discrimination in a concise and machine-readable form. Topic Models are statistical models concerned with the extraction of semantic information hidden in the large number of data available in text collections. They represent a document as a mixture of topics, probability distributions over words that represent a semantic concept. According to Topic Model representation, words can be substituted by topics able to represent concisely its meaning. Indeed, Topic Models perform a data dimensionality reduction that can improve the performance of text classification and information retrieval techniques. In sentiment classification, they can provide the necessary representation by extracting topics that represent the general feelings expressed in text. This work presents a study of the use of Topic Models for representing and classifying user reviews with respect to their feelings. In particular, the Latent Dirichlet Allocation (LDA) model and four extensions (two of them developed by the author) are evaluated on the task of aspect-based sentiment classification. The extensions to the LDA model enables us to investigate the effects of the incorporation of additional information such as context, aspect rating and multiple aspect rating into the original model.
50

"Projeto multirresolução de operadores morfológicos a partir de exemplos" / "Multiresolution design of morphological operators from examples"

Vaquero, Daniel André 19 April 2006 (has links)
Resolver um problema de processamento de imagens pode ser uma tarefa bastante complexa. Em geral, isto depende de diversos fatores, como o conhecimento, experiência e intuição de um especialista, e o conhecimento do domínio da aplicação em questão. Motivados por tal complexidade, alguns grupos de pesquisa têm trabalhado na criação de técnicas para projetar operadores de imagens automaticamente, a partir de uma coleção de exemplos de entrada e saída do operador desejado. A abordagem multirresolução tem sido empregada com sucesso no projeto estatístico de W-operadores de janelas grandes. Esta metodologia usa uma estrutura piramidal de janelas para auxiliar na estimação das distribuições de probabilidade condicional para padrões não observados no conjunto de treinamento. No entanto, a qualidade do operador projetado depende diretamente da pirâmide escolhida. Tal escolha é feita pelo projetista a partir de sua intuição e de seu conhecimento prévio sobre o problema. Neste trabalho, investigamos o uso da entropia condicional como um critério para determinar automaticamente uma boa pirâmide a ser usada no projeto do W-operador. Para isto, desenvolvemos uma técnica que utiliza o arcabouço piramidal multirresolução como um modelo na estimação da distribuição conjunta de probabilidades. Experimentos com o problema de reconhecimento de dígitos manuscritos foram realizados para avaliar o desempenho do método. Utilizamos duas bases de dados diferentes, com bons resultados. Além disso, outra contribuição deste trabalho foi a experimentação com mapeamentos de resolução da teoria de pirâmides de imagens no contexto do projeto de W-operadores multirresolução. / The task of finding a good solution for an image processing problem is often very complex. It usually depends on the knowledge, experience and intuition of an image processing specialist. This complexity has served as a motivation for some research groups to create techniques for automatically designing image operators based on a collection of input and output examples of a desired operator. The multiresolution approach has been successfully used to statistically design W-operators for large windows. However, the success of this method directly depends on the adequate choice of a pyramidal window structure, which is used to aid in the estimation of the conditional probability distributions for patterns that do not appear in the training set. The choice is made by the designer, based on his intuition and previous knowledge of the problem domain. In this work, we investigate the use of the conditional entropy criterion for automatically determining a good pyramid. In order to compute the entropy, we have developed a technique that uses the multiresolution pyramidal framework as a model in the estimation of the joint probability distribution. The performance of the method is evaluated on the problem of handwritten digits recognition. Two different databases are used, with good practical results. Another important contribution of this work is the experimentation with resolution mappings from image pyramids theory in the context of multiresolution W-operator design.

Page generated in 0.1253 seconds