• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1015
  • 168
  • 34
  • 24
  • 24
  • 24
  • 19
  • 14
  • 5
  • 4
  • 4
  • 4
  • 1
  • Tagged with
  • 1229
  • 990
  • 580
  • 413
  • 188
  • 174
  • 173
  • 151
  • 140
  • 135
  • 127
  • 123
  • 120
  • 115
  • 111
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Seleção e controle do viés de aprendizado ativo / Selection and control of the active learning bias

Davi Pereira dos Santos 22 February 2016 (has links)
A área de aprendizado de máquina passa por uma grande expansão em seu universo de aplicações. Algoritmos de indução de modelos preditivos têm sido responsáveis pela realização de tarefas que eram inviáveis ou consideradas exclusividade do campo de ação humano até recentemente. Contudo, ainda é necessária a supervisão humana durante a construção de conjuntos de treinamento, como é o caso da tarefa de classificação. Tal construção se dá por meio da rotulação manual de cada exemplo, atribuindo a ele pelo menos uma classe. Esse processo, por ser manual, pode ter um custo elevado se for necessário muitas vezes. Uma técnica sob investigação corrente, capaz de mitigar custos de rotulação, é o aprendizado ativo. Dado um orçamento limitado, o objetivo de uma estratégia de amostragem ativa é direcionar o esforço de treinamento para os exemplos essenciais. Existem diversas abordagens efetivas de selecionar ativamente os exemplos mais importantes para consulta ao supervisor. Entretanto, não é possível, sem incorrer em custos adicionais, testá-las de antemão quanto à sua efetividade numa dada aplicação. Ainda mais crítica é a necessidade de que seja escolhido um algoritmo de aprendizado para integrar a estratégia de aprendizado ativo antes que se disponha de um conjunto de treinamento completo. Para lidar com esses desafios, esta tese apresenta como principais contribuições: uma estratégia baseada na inibição do algoritmo de aprendizado nos momentos menos propícios ao seu funcionamento; e, a experimentação da seleção de algoritmos de aprendizado, estratégias ativas de consulta ou pares estratégia-algoritmo baseada em meta-aprendizado, visando a experimentação de formas de escolha antes e durante o processo de rotulação. A estratégia de amostragem proposta é demonstrada competitiva empiricamente. Adicionalmente, experimentos iniciais com meta-aprendizado indicam a possibilidade de sua aplicação em aprendizado ativo, embora tenha sido identificado que investigações mais extensivas e aprofundadas sejam necessárias para apurar sua real efetividade prática. Importantes contribuições metodológicas são descritas neste documento, incluindo uma análise frequentemente negligenciada pela literatura da área: o risco devido à variabilidade dos algoritmos. Por fim, são propostas as curvas e faixas de ranqueamento, capazes de sumarizar, num único gráfico, experimentos de uma grande coleção de conjuntos de dados. / The machine learning area undergoes a major expansion in its universe of applications. Algorithms for the induction of predictive models have made it possible to carry out tasks that were once considered unfeasible or restricted to be solved by humans. However, human supervision is still needed to build training sets, for instance, in the classification task. Such building is usually performed by manual labeling of each instance, providing it, at least, one class. This process has a high cost due to its manual nature. A current technique under research, able to mitigate labeling costs, is called active learning. The goal of an active learning strategy is to manage the training effort to focus on the most relevant instances, within a budget. Several effective sampling approaches having been proposed. However, when one needs to choose the proper strategy for a given problem, they are impossible to test beforehand without incurring into additional costs. Even more critical is the need to choose a learning algorithm to integrate the active learning strategy before the existence of a complete training set. This thesis presents two major contributions to cope with such challenges: a strategy based on the learning algorithm inhibition when it is prone to inaccurate predictions; and, an attempt to automatically select the learning algorithms, active querying strategies or pairs strategy-algorithm, based on meta-learning. This attempt tries to verify the feasibility of such kind of decision making before and during the learning process. The proposed sampling approach is empirically shown to be competitive. Additionally, meta-learning experiments show that it can be applied to active learning, although more a extensive investigation is still needed to assess its real practical effectivity. Important methodological contributions are made in this document, including an often neglected analysis in the literature of active learning: the risk due to the algorithms variability. A major methodological contribution, called ranking curves, is presented.
32

Sobre o modelo neural RuleNet e suas características simbólica e cooperativa.

Figueira, Lucas Baggio 28 May 2004 (has links)
Made available in DSpace on 2016-06-02T19:06:13Z (GMT). No. of bitstreams: 1 DissLBF.pdf: 823769 bytes, checksum: 521bc3ae1780ad06aa0fbb01ae4c2d40 (MD5) Previous issue date: 2004-05-28 / Financiadora de Estudos e Projetos / Machine learning is an area of Artificial Intelligence that deals with methods and techniques for implementing automatic learning in computational systems. This research work investigates a machine learning neural model called RuleNet and its extension for fuzzy domains named Fuzzy RuleNet. Among the advantages of the RuleNet proposal are its simplicity, easiness and fast training as well as the way it represents the induced concept, which can be characterized as symbolic. This aspect makes RuleNet suitable for participating in cooperative systems. This research work investigates both the contribution of the RuleNet model as a stand alone learning technique as well as part of a cooperative system. It presents and discusses the results obtained in several experiments, evaluating RuleNet as a stand alone machine learning (versus two other machine learning methods, the ID3 and the NGE) and as part of a cooperative system, articulated to ID3 and to NGE. / Aprendizado de máquina é uma área da Inteligência Artificial que investe na pesquisa de métodos e técnicas para viabilizar o aprendizado automático em sistemas computacionais. Este trabalho de pesquisa investiga um modelo neural de aprendizado de máquina chamado RuleNet e sua extensão Fuzzy RuleNet, para domínios fuzzy. Dentre as vantagens da proposta RuleNet estão sua simplicidade, facilidade e rapidez no treinamento bem como a maneira como representa o conceito induzido, que pode ser caracterizada como simbólica. Esse aspecto torna o RuleNet adequado a ser incorporado a sistemas cooperativos de aprendizado. O trabalho de pesquisa investiga a contribuição do modelo RuleNet tanto como uma técnica de aprendizado stand-alone quanto como parte de um sistema cooperativo. O trabalho apresenta e discute os resultados obtidos em vários experimentos que avaliam o RuleNet como método de aprendizado stand-alone (versus dois outros métodos de aprendizado de máquina, o ID3 e o NGE) e como parte de um sistema cooperativo, articulado tanto ao ID3 quanto ao NGE.
33

Aprendizado de máquina multirrótulo: explorando a dependência de rótulos e o aprendizado ativo / Multi-label machine learning: exploring label dependency and active learning

Cherman, Everton Alvares 10 January 2014 (has links)
Métodos tradicionais de aprendizado supervisionado, chamados de aprendizado monorrótulo, consideram que cada exemplo do conjunto de dados rotulados está associado a um único rótulo. No entanto, existe uma crescente quantidade de aplicações que lidam com exemplos que estão associados a múltiplos rótulos. Essas aplicações requerem métodos de aprendizado multirrótulo. Esse cenário de aprendizado introduz novos desafios que demandam abordagens diferentes daquelas tradicionalmente utilizadas no aprendizado monorrótulo. O custo associado ao processo de rotulação de exemplos, um problema presente em aprendizado monorrótulo, é ainda mais acentuado no contexto multirrótulo. O desenvolvimento de métodos para reduzir esse custo representa um desafio de pesquisa nessa área. Além disso, novos métodos de aprendizado também devem ser desenvolvidos para, entre outros objetivos, considerar a dependência de rótulos: uma nova característica presente no aprendizado multirrótulo. Há um consenso na comunidade de que métodos de aprendizado multirrótulo têm a capacidade de usufruir de melhor eficácia preditiva quando considerada a dependência de rótulos. Os principais objetivos deste trabalho estão relacionados a esses desafios: reduzir o custo do processo de rotulação de exemplos; e desenvolver métodos de aprendizado que explorem a dependência de rótulos. No primeiro caso, entre outras contribuições, um novo método de aprendizado ativo, chamado score dev, é proposto para reduzir os custos associados ao processo de rotulação multirrótulo. Resultados experimentais indicam que o método score dev é superior a outros métodos em vários domínios. No segundo caso, um método para identificar dependência de rótulos, chamado UBC, é proposto, bem como o BR+, um método para explorar essa característica. O método BR+ apresenta resultados superiores a métodos considerados estado da arte / Traditional supervised learning methods, called single-label learning, consider that each example from a labeled dataset is associated with only one label. However, an increasing number of applications deals with examples that are associated with multiple labels. These applications require multi-label learning methods. This learning scenario introduces new challenges and demands approaches that are different from those traditionally used in single-label learning. The cost of labeling examples, a problem in single-label learning, is even higher in the multi-label context. Developing methods to reduce this cost represents a research challenge in this area. Moreover, new learning methods should also be developed to, among other things, consider the label dependency: a new characteristic present in multi-label learning problems. Furthermore, there is a consensus in the community that multi-label learning methods are able to improve their predictive performance when label dependency is considered. The main aims of this work are related to these challenges: reducing the cost of the labeling process; and developing multi-label learning methods to explore label dependency. In the first case, as well as other contributions, a new multi-label active learning method, called score dev, is proposed to reduce the multi-labeling processing costs. Experimental results show that score dev outperforms other methods in many domains. In the second case, a method to identify label dependency, called UBC, is proposed, as well as BR+, a method to explore this characteristic. Results show that the BR+ method outperforms other state-of-the-art methods
34

Estimação monocular de profundidade por aprendizagem profunda para veículos autônomos: influência da esparsidade dos mapas de profundidade no treinamento supervisionado / Monocular depth estimation by deep learning for autonomous vehicles: influence of depth maps sparsity in supervised training

Rosa, Nícolas dos Santos 24 June 2019 (has links)
Este trabalho aborda o problema da estimação de profundidade a partir de imagens monoculares (SIDE), com foco em melhorar a qualidade das predições de redes neurais profundas. Em um cenário de aprendizado supervisionado, a qualidade das predições está intrinsecamente relacionada aos rótulos de treinamento, que orientam o processo de otimização. Para cenas internas, sensores de profundidade baseados em escaneamento por luz estruturada (Ex.: Kinect) são capazes de fornecer mapas de profundidade densos, embora de curto alcance. Enquanto que para cenas externas, consideram-se LiDARs como sensor de referência, que comparativamente fornece medições mais esparsas, especialmente em regiões mais distantes. Em vez de modificar a arquitetura de redes neurais para lidar com mapas de profundidade esparsa, este trabalho introduz um novo método de densificação para mapas de profundidade, usando o framework de Mapas de Hilbert. Um mapa de ocupação contínuo é produzido com base nos pontos 3D das varreduras do LiDAR, e a superfície reconstruída resultante é projetada em um mapa de profundidade 2D com resolução arbitrária. Experimentos conduzidos com diferentes subconjuntos do conjunto de dados do KITTI mostram uma melhora significativa produzida pela técnica proposta (esparso-para-contínuo), sem necessitar inserir informações extras durante a etapa de treinamento. / This work addresses the problem of single image depth estimation (SIDE), focusing on improving the quality of deep neural network predictions. In a supervised learning scenario, the quality of predictions is intrinsically related to the training labels, which guide the optimization process. For indoor scenes, structured-light-based depth sensors (e.g. Kinect) are able to provide dense, albeit short-range, depth maps. While for outdoor scenes, LiDARs are considered the standard sensor, which comparatively provide much sparser measurements, especially in areas further away. Rather than modifying the neural network architecture to deal with sparse depth maps, this work introduces a novel densification method for depth maps using the Hilbert Maps framework. A continuous occupancy map is produced based on 3D points from LiDAR scans, and the resulting reconstructed surface is projected into a 2D depth map with arbitrary resolution. Experiments conducted with various subsets of the KITTI dataset show a significant improvement produced by the proposed Sparse-to-Continuous technique, without the introduction of extra information into the training stage.
35

Aprendizado de máquina multirrótulo: explorando a dependência de rótulos e o aprendizado ativo / Multi-label machine learning: exploring label dependency and active learning

Everton Alvares Cherman 10 January 2014 (has links)
Métodos tradicionais de aprendizado supervisionado, chamados de aprendizado monorrótulo, consideram que cada exemplo do conjunto de dados rotulados está associado a um único rótulo. No entanto, existe uma crescente quantidade de aplicações que lidam com exemplos que estão associados a múltiplos rótulos. Essas aplicações requerem métodos de aprendizado multirrótulo. Esse cenário de aprendizado introduz novos desafios que demandam abordagens diferentes daquelas tradicionalmente utilizadas no aprendizado monorrótulo. O custo associado ao processo de rotulação de exemplos, um problema presente em aprendizado monorrótulo, é ainda mais acentuado no contexto multirrótulo. O desenvolvimento de métodos para reduzir esse custo representa um desafio de pesquisa nessa área. Além disso, novos métodos de aprendizado também devem ser desenvolvidos para, entre outros objetivos, considerar a dependência de rótulos: uma nova característica presente no aprendizado multirrótulo. Há um consenso na comunidade de que métodos de aprendizado multirrótulo têm a capacidade de usufruir de melhor eficácia preditiva quando considerada a dependência de rótulos. Os principais objetivos deste trabalho estão relacionados a esses desafios: reduzir o custo do processo de rotulação de exemplos; e desenvolver métodos de aprendizado que explorem a dependência de rótulos. No primeiro caso, entre outras contribuições, um novo método de aprendizado ativo, chamado score dev, é proposto para reduzir os custos associados ao processo de rotulação multirrótulo. Resultados experimentais indicam que o método score dev é superior a outros métodos em vários domínios. No segundo caso, um método para identificar dependência de rótulos, chamado UBC, é proposto, bem como o BR+, um método para explorar essa característica. O método BR+ apresenta resultados superiores a métodos considerados estado da arte / Traditional supervised learning methods, called single-label learning, consider that each example from a labeled dataset is associated with only one label. However, an increasing number of applications deals with examples that are associated with multiple labels. These applications require multi-label learning methods. This learning scenario introduces new challenges and demands approaches that are different from those traditionally used in single-label learning. The cost of labeling examples, a problem in single-label learning, is even higher in the multi-label context. Developing methods to reduce this cost represents a research challenge in this area. Moreover, new learning methods should also be developed to, among other things, consider the label dependency: a new characteristic present in multi-label learning problems. Furthermore, there is a consensus in the community that multi-label learning methods are able to improve their predictive performance when label dependency is considered. The main aims of this work are related to these challenges: reducing the cost of the labeling process; and developing multi-label learning methods to explore label dependency. In the first case, as well as other contributions, a new multi-label active learning method, called score dev, is proposed to reduce the multi-labeling processing costs. Experimental results show that score dev outperforms other methods in many domains. In the second case, a method to identify label dependency, called UBC, is proposed, as well as BR+, a method to explore this characteristic. Results show that the BR+ method outperforms other state-of-the-art methods
36

[en] PRODUCT OFFERING CLASSIFICATION / [pt] CLASSIFICAÇÃO DE OFERTAS DE PRODUTOS

FELIPE REIS GOMES 26 February 2014 (has links)
[pt] Este trabalho apresenta o EasyLearn, um framework para apoiar o desenvolvimento de aplicações voltadas ao aprendizado supervisionado. O EasyLearn define uma camada intermediaria, de simples configuração e entendimento, entre a aplicação e o WEKA, um framework de aprendizado de máquina criado pela Universidade de Waikato. Todos os classificadores e filtros implementados pelo WEKA podem ser facilmente encapsulados para serem utilizados pelo EasyLearn. O EasyLearn recebe como entrada um conjunto de arquivos de configuração no formato XML contendo a definição do fluxo de processamento a ser executado, além da fonte de dados a ser processada, independente do formato. Sua saída é adaptável e pode ser configurada para produzir, por exemplo, relatórios de acurácia da classificação, a própria da fonte de dados classificada, ou o modelo de classificação já treinado. A arquitetura do EasyLearn foi definida após a análise detalhada dos processos de classificação, permitindo identificar inúmeras atividades em comum entre os três processos estudados aprendizado, avaliação e classificação). Através desta percepção e tomando as linguagens orientadas a objetos como inspiração, foi criado um framework capaz de comportar os processos de classificação e suas possíveis variações, além de permitir o reaproveitamento das configurações, através da implementação de herança e polimorfismo para os seus arquivos de configuração. A dissertação ilustra o uso do framework criado através de um estudo de caso completo sobre classificação de produtos do comércio eletrônico, incluindo a criação do corpus, engenharia de atributos e análise dos resultados obtidos. / [en] This dissertation presents EasyLearn, a framework to support the development of supervised learning applications. EasyLearn dfines an intermediate layer, which is easy to configure and understand, between the application and WEKA, a machine learning framework created by the University of Waikato. All classifiers and filters implemented by WEKA can be easily encapsulated to be used by EasyLearn. EasyLearn receives as input a set of configuration files in XML format containing the definition of the processing flow to be executed, in addition to the data source to be classified, regardless of format. Its output is customizable and can be configured to produce classification accuracy reports, the classified data source, or the trained classification model. The architecture of EasyLearn was defined after a detailed analysis of the classification process, which identified a set of common activities among the three analyzed processes (learning, evaluation and classification). Through this insight and taking the object-oriented languages as inspiration, a framework was created which is able to support the classification processes and its variations, and which also allows reusing settings by implementing inheritance and polymorphism in their configuration files. This dissertation also illustrates the use of the created framework presenting a full case study about e-commerce product classification, including corpus creation, attribute engineering and result analysis.
37

"Uma abordagem para pré-processamento de dados textuais em algoritmos de aprendizado"

Martins, Claudia Aparecida 25 November 2003 (has links)
A representação atributo-valor de documentos usada no processo de mineração de textos é uma estrutura adequada à maioria das tarefas de classificação e agrupamento de documentos. No contexto de algoritmos de aprendizado de máquina, a representação atributo-valor de documentos freqüentemente utiliza a abordagem bag-of-words. Essa abordagem é caracterizada pela alta dimensionalidade na representação dos dados, pois toda palavra presente no documento pode ser um possível atributo. Deve ser considerado, portanto, que uma boa representação de documentos tem uma influência fundamental no desempenho dos algoritmos de aprendizado (supervisionado ou não supervisionado). Como uma das principais contribuições deste trabalho, é apresentada uma ferramenta para pré-processamento que eficientemente decompõe textos em palavras usando a abordagem bag-of-words, bem como o uso de métodos para reduzir a dimensionalidade da representação gerada. Essa ferramenta transforma os documentos em um formato acessível à maioria dos algoritmos de aprendizado, nos quais os dados são descritos como um vetor de dimensão fixa. A ferramenta computacional implementada, entre as diversas funcionalidades, reduz a dimensionalidade da representação de documentos com o objetivo de obter um melhor desempenho dos algoritmos de aprendizado de máquina utilizados. A escolha do algoritmo de aprendizado a ser utilizado, supervisionado e não supervisionado, é dependente do problema em questão. Algoritmos de aprendizado supervisionado podem ser aplicados a documentos rotulados, enquanto algoritmos de aprendizado não supervisionado são freqüentemente aplicados a dados não rotulados. No caso do aprendizado não supervisionado, para avaliar se um dado cluster corresponde a um certo conceito, neste trabalho é utilizada uma abordagem usando algoritmos de aprendizado indutivo para auxiliar na interpretação dos clusters. Nesta abordagem o interesse consiste em compreender como o sistema representa e raciocina sobre o conhecimento adquirido. Essa compreensão é necessária tanto para o usuário aceitar a solução gerada pelo sistema quanto para analisar o raciocínio utilizado.
38

"Utilização de aprendizado de máquina para a adaptação de estruturas em hipermídia adaptativa"

Aragão, Alfredo Lanari de 16 February 2004 (has links)
Sistemas Hipermídia são programas capazes de armazenar e recuperar informações não-lineares, estabelecendo uma estrutura complexa e flexível representada por nós interligados. À medida em que aumenta o espaço de navegação, tal como acontece na World Wide Web (WWW ou Web), a possibilidade de desorientação do usuário no espaço de navegação torna-se maior. Assim, a Hipermídia Adaptativa investiga métodos e técnicas para a adaptação automática de conteúdos e/ou ligações para características, interesses ou objetivos individuais. Trabalhos recentes em Hipermídia Adaptativa sugerem o uso de técnicas de Aprendizado de Máquina e Modelagem de Usuários. Este trabalho investiga o uso de técnicas de Aprendizado de Máquina para a adaptação de estruturas (ligações) em um ambiente Hipermídia, em especial a World Wide Web. Para tanto, avalia-se o desempenho de diferentes algoritmos de Aprendizado de Máquina para a adaptção de ligações em ambiente WWW. Os resultados experimentais obtidos sugerem o potencial do emprego de técnicas de Aprendizado de Máquina.
39

Seleção de componentes em ensembles de clasificadores multirrótulo / Component Selection in Ensembles of Multi-label Classifiers (Inglês)

Costa, Nathanael de Castro 27 July 2012 (has links)
Made available in DSpace on 2019-03-29T23:33:04Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-07-27 / The selection of components in ensembles of classifiers is a very common activity in the field of Machine Learning with several studies showing its effectiveness in obtaining significant gains in accuracy. However, the most studied classification task involves mutually exclusive labels (classes). The objective of this work is to present a study on the selection of components in ensembles of multi-label classifiers, whereby an instance can become associated with more than one label. Two search approaches for the component selection were used, one based on Genetic Algorithms and the other based on Hill Climbing. Conversely, two types of evaluation measures were adopted for ensemble selection: one based on multilabel accuracy measures and the other based on well known diversity measures for ensembles, which were modified to handle the multilabel case. Another selection approach was also conceived to assign different ensembles to different labels of the labelset. Specifically for generating the RAkEL components, 10 well known learning algorithms for inducing one-label classifiers were used, namely, Naïve Bayes, RBF Neural Networks, Support Vector Machines, J48, REP Tree, IBk, Decision Stump, OneR, PART, and Decision Table. A systematic empirical study was conducted on seven publicly available datasets, involving two ensemble models, each making use of one of the well known multi-label classifiers RAkEL and ML-RBF. In general, the results achieved show that the ensembles produced via ensemble selection can yield better results than the full ensembles and some of their components. The ensemble selection type based on multilabel accuracy measures performed usually better than the other based on diversity measures. Finally, among the search procedures for conducting the selection, none has prevailed over the other. Keywords: Machine Learning, Multi-label Classification, Ensembles, Ensemble Selection, Diversity Measures, Genetic Algorithms, Hill Climbing. / A seleção de componentes em ensembles de classificadores é uma atividade muito comum no campo de Aprendizado de Máquina, com vários estudos comprovando sua efetividade em obter maiores ganhos de acuidade. Contudo, a tarefa de classificação mais investigada é a de rótulos, ou classes, mutuamente exclusivos. Nesse contexto, o objetivo deste trabalho é apresentar um estudo sobre a seleção de componentes em ensembles de classificadores multirrótulo, em que uma instância (padrão, exemplo) pode ser associada a mais de um rótulo. Os procedimentos de seleção investigados utilizaram a abordagem evolucionária dos Algoritmos Genéticos e o método de busca gulosa Subida da Encosta. Dois tipos de medidas de avaliação foram adotados para a seleção dos componentes: enquanto o primeiro tipo inclui métricas de acuidade já propostas para o caso multirrótulo, o segundo envolve medidas bem conhecidas de diversidade em ensembles, as quais sofreram modificações para tratar problemas de classificação multirrótulo. Foi analisada também uma abordagem de seleção de componentes que atribui distintos ensembles para distintos rótulos do problema. Um estudo empírico sistemático foi conduzido com base em sete conjuntos de dados disponíveis publicamente e envolvendo dois arranjos de ensembles, cada um fazendo uso de um dos conhecidos classificadores multirrótulo RAkEL e ML-RBF. Especificamente para gerar os componentes do RAkEL, foram escolhidos 10 algoritmos conhecidos de indução de classificadores único-rótulo, quais sejam, Naïve Bayes, Redes Neurais RBF, Máquinas de Vetores-Suporte, J48, REP Tree, IBk, Decision Stump, OneR, PART e Decision Table. Em geral, os resultados experimentais obtidos evidenciam que as diferentes abordagens de seleção de componentes podem melhorar o desempenho do novo ensemble em relação ao ensemble original e a alguns dos módulos-componentes. Dos tipos de seleção adotados, aquele que utilizou as métricas de acuidade geralmente apresentou os melhores resultados. Por outro lado, dos procedimentos de busca para a seleção, não houve um que obtivesse maior destaque que o outro. Palavras-chave: Aprendizado de Máquina, Classificação Multirrótulo, Ensembles, Seleção de Componentes, Medida de Diversidade, Algoritmos Genéticos, Subida da Encosta.
40

Método híbrido baseado em aprendizado de máquina e programação linear inteira para o problema de detecção de incertezas especulativas em textos / Hybrid Methodology based on Machine Learning and Integer Linear Programming for Detecting Hedges in Texts (Inglês)

Quinho, Marcelo Coelho 11 September 2012 (has links)
Made available in DSpace on 2019-03-29T23:33:19Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-09-11 / Identifying unreliable or uncertain information in texts is fundamental for information extraction systems, as only information based on facts, free from uncertainties should be communicated to users. The literature on the detection of uncertainty texts contains many works that use Machine Learning (ML) to identify parts of the text that are not based on facts. The work divides the problem into three subproblems of classification and then applying post-processing with heuristics for removal of inconsistencies of outputs of classifiers. This work proposes a hybrid methodology based on ML and Integer Linear Programming (ILP) to detect uncertainties texts. The methodology consists of three steps: (1) the first step consists in pre-processing text for inclusion of linguistic information, (2) the second step consists in using local classifiers trained using AM; (3) the third step is to combine the results of local classifiers using an inference procedure that exploits the global structure of the problem, ruling out the need for the use of heuristics. The main contribution of the proposed methodology as well as this dissertation is the ILP model proposed in step 3. To verify the feasibility of the methodology, we developed a tool that allowed the application on a case study in biomedicine. The contribution of the combination of the output of the classifiers with the use of ILP is examined based on the comparison results produced when this step is replaced by a set of heuristics. The experimental results showed an improvement of 3.7 points when using the measure F of ILP step instead of heuristics. Keywords: Detection of Uncertainty; Machine Learning; Natural Language Processing; Integer Linear Programming / Identificar informações incertas ou não confiáveis em textos é fundamental para sistemas de extração de informação, pois somente informações baseadas em fatos, livre de incertezas, devem ser transmitidas para os usuários. A literatura sobre detecção de incerteza em textos contém diversos trabalhos que utilizam Aprendizado de Máquina (AM) para identificar partes do texto que não são baseados em fatos. Os trabalhos dividem o problema em três subproblemas de classificação e em seguida aplicam pós-processamento com heurísticas para retirada de inconsistências das saídas dos classificadores. Esta dissertação propõe uma metodologia híbrida baseada em AM e Programação Linear Inteira (PLI) para detectar incertezas em textos. A metodologia proposta é composta de três etapas: (1) a primeira etapa consiste no pré-processamento do texto para inclusão de informações linguísticas; (2) a segunda etapa, consiste em utilizar classificadores locais treinados com o uso de AM; (3) a terceira etapa, consiste em combinar os resultados dos classificadores locais usando um mecanismo de inferência que explora a estrutura global do problema, descartando a necessidade do uso de heurísticas. A principal contribuição da metodologia proposta, bem como desta dissertação, é o modelo de PLI proposto na etapa 3. Para verificar a viabilidade da metodologia, foi desenvolvida uma ferramenta que permitiu a aplicação num estudo de caso da área biomédica. A contribuição da combinação da saída dos classificadores com o uso de PLI é examinada a partir da comparação dos resultados produzidos quando essa etapa é substituída por um conjunto de heurísticas. Os resultados experimentais evidenciam uma melhora de 3,7 pontos na medida F ao utilizar a etapa de PLI ao invés das heurísticas. Palavras-chave: Detecção de Incertezas; Aprendizado de Máquina; Processamento em Linguagem Natural; Programação Linear Inteira

Page generated in 0.0634 seconds