Spelling suggestions: "subject:"métododos dde busca"" "subject:"métododos dee busca""
1 |
Sobre o processo de seleção de subconjuntos de atributos - as abordagens filtro e wrapper.Santoro, Daniel Monegatto 28 April 2005 (has links)
Made available in DSpace on 2016-06-02T19:06:20Z (GMT). No. of bitstreams: 1
DissDMS.pdf: 4319162 bytes, checksum: 520f8924dcc0b2471665008a2ea3ec5a (MD5)
Previous issue date: 2005-04-28 / Universidade Federal de Sao Carlos / Inductive machine learning methods learn the expression of the concept from a
training set. Training sets are, generally, composed by instances described by attributevalue
pairs and an associated class. The attribute set used for describing the training
instances has a strong impact on the induced concepts.
In a machine learning environment, attribute subset selection techniques aim at the
identification of the attributes which effectively contribute for establishing the class of
an instance. These techniques can be characterized as wrappers (if they are associated
with a specific machine learning method) or filter and many of them work in
conjunction with a search method (there are also embedded feature selection methods,
not very representative).
This work approaches the attribute subset selection problem by investigating the
performance of two families of wrappers the NN (Nearest Neighbor) and DistAl
families and three filter families Relief, Focus and LVF. The many members of the
NN family (as well as of the DistAl family) differ among themselves with relation to the
search method they use.
The work presents and discusses the experiments conducted in many knowledge
domains and their results allow a comparative evaluation (as far as accuracy and
dimensionality are concerned) among the members of the families. / Métodos indutivos de aprendizado de máquina aprendem a expressão do conceito a
partir de um conjunto de treinamento. Conjuntos de treinamento são, na maioria das
vezes, compostos por instâncias descritas por pares atributo-valor e uma classe
associada. O conjunto de atributos usado para descrever as instâncias de treinamento
tem um forte impacto na expressão induzida do conceito.
As técnicas para a seleção de subconjuntos de atributos no contexto de aprendizado
de máquina objetivam identificar os atributos que efetivamente contribuem para a
caracterização da classe de uma instância. Essas técnicas podem ser caracterizadas
como do tipo wrapper (se estão associadas a um método específico de aprendizado de
máquina) ou filtro e muitas delas funcionam articuladas a um método de busca (há ainda
o tipo integrado, pouco representativo).
Este trabalho aborda o problema de seleção de subconjuntos de atributos por meio
da investigação do desempenho de duas famílias de wrappers a família NN (Neareast
Neighbor) e a DistAl e de três famílias de filtros Relief, Focus e LVF. Os vários
integrantes da família NN (bem como da família DistAl) diferem entre si com relação
ao método de busca utilizado.
O trabalho apresenta e discute os experimentos realizados em vários domínios de
conhecimento e seus resultados permitem uma avaliação comparativa de desempenho
(precisão e dimensionalidade) dos elementos das várias famílias avaliadas.
|
2 |
Sobre métodos de busca padrão para minimização de funções com restrições lineares / On pattern search methods for linearly constrained minimizationFerreira, Deise Gonçalves, 1988- 03 April 2013 (has links)
Orientador: Maria Aparecida Diniz Ehrhardt / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação / Made available in DSpace on 2018-08-22T06:10:21Z (GMT). No. of bitstreams: 1
Ferreira_DeiseGoncalves_M.pdf: 2631020 bytes, checksum: 45eb84901394375843735b1fdef599ad (MD5)
Previous issue date: 2013 / Resumo: Neste trabalho voltamos nossa atenção para métodos de otimização que não fazem uso de derivadas. Dentre esses, estamos interessadas em um método de busca padrão para minimização de funções com restrições lineares. Abordamos um algoritmo proposto por Lewis e Torczon, cuja ideia geral é que o padrão deve conter direções de busca ao longo das quais iterações factíveis sejam determinadas. O algoritmo possui resultados de convergência global. Realizamos sua implementação computacional, e propomos novas estratégias de busca e atualização do tamanho do passo, além de um novo padrão de direções de busca. Realizamos testes numéricos, de modo a analisar o desempenho das estratégias propostas e comparar o desempenho do padrão de direções que introduzimos com o proposto por Lewis e Torczon / Abstract: In this work, our interest lies on derivative-free optimization methods. Among these, our aim is to study a pattern search method for linearly constrained minimization. We studied an algorithm proposed by Lewis and Torsion, whose general idea is that the pattern must contain search directions in which feasible iterations must be computed. The algorithm has global convergence results. We accomplished its computational implementation and we propose new strategies of search and updating rule for the step-length control parameter. We also propose a new pattern of search directions. We accomplished numerical experiments in order to analyze the performance of our proposals and also to compare the performance of our pattern with the one proposed by Lewis and Torczon / Mestrado / Matematica Aplicada / Mestra em Matemática Aplicada
|
3 |
Sobre um método de minimização irrestrita baseado em derivadas simplex / About an unconstrained minimization method based on simplex derivativesCervelin, Bruno Henrique, 1988- 04 August 2013 (has links)
Orientador: Maria Aparecida Diniz Ehrhardt / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-22T15:48:00Z (GMT). No. of bitstreams: 1
Cervelin_BrunoHenrique_M.pdf: 1935510 bytes, checksum: 91d17dd60bdd280c9eddd301cb3d2c24 (MD5)
Previous issue date: 2013 / Resumo: O objetivo deste trabalho é apresentar alguns métodos de minimização irrestrita sem derivadas, tais como, Nelder-Mead, busca padrão e SID-PSM, assim como compará-los. Ainda pretendemos apresentar o problema de otimização de parâmetros de algoritmos, e aplicar o método SID-PSM de modo a encontrar parâmetros ótimos para o próprio método SID-PSM em relação ao número de avaliações de função que o método realiza. Os experimentos numéricos realizados mostram que o SID-PSM _e mais robusto e mais eficiente que os métodos clássicos sem derivadas (busca padrão e Nelder-Mead). Outros experimentos nos mostram o potencial do problema de otimização de parâmetros de algoritmos em melhorar tanto a eficiência quanto a robustez dos métodos / Abstract: The aim of this paper is to present some derivative-free methods for unconstrained minimization problems, such as Nelder-Mead, pattern search and SID-PSM, and compare them. We also intend to present the problem of optimal algorithmic parameters, and apply the method SID-PSM in order to find optimal parameters for the method SID-PSM itself in relation to the number of function evaluations performed by the method. The numerical experiments performed show that the SID-PSM is more robust and more efficient than the classical derivative-free methods (pattern search and Nelder-Mead). Other experiments show us the potential of the problem of optimal algorithmic parameters to improve both the efficiency and the robustness of the methods / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
|
Page generated in 0.0836 seconds