Return to search

[en] ALGORITHMS FOR PARTIAL LEAST SQUARES REGRESSION / [pt] ALGORITMOS PARA REGRESSÃO POR MÍNIMOS QUADRADOS PARCIAIS

[pt] Muitos problemas da área de aprendizagem automática tem por
objetivo modelar a complexa relação existente num
sisitema , entre variáveis de entrada X e de saída Y na
ausência de um modelo teórico. A regressão por mínimos
quadrados parciais PLS ( Partial Least Squares) constitui
um método linear para resolução deste tipo de
problema , voltado para o caso de um grande número de
variáveis de entrada quando comparado com número de
amostras. Nesta tese , apresentamos uma variante do
algoritmo clássico PLS para o tratamento de grandes
conjuntos de dados , mantendo um bom poder preditivo.
Dentre os principais resultados destacamos um versão
paralela PPLS (Parallel PLS ) exata para o caso de apenas
um variável de saída e um versão rápida e aproximada DPLS
(DIRECT PLS) para o caso de mais de uma variável de saída.
Por outro lado ,apresentamos também variantes para o
aumento da qualidade de predição graças à formulação não
linear. São elas o LPLS ( Lifted PLS ), algoritmo para o
caso de apenas uma variável de saída, baseado na teoria
de funções de núcleo ( kernel functions ), uma
formulação kernel para o DPLS e um algoritmo multi-kernel
MKPLS capaz de uma modelagemmais compacta e maior poder
preditivo, graças ao uso de vários núcleos na geração do
modelo. / [en] The purpose of many problems in the machine learning
field isto model the complex relationship in a system
between the input X and output Y variables when no
theoretical model is available. The Partial Least Squares
(PLS)is one linear method for this kind of problem, for the
case of many input variables when compared to the number of
samples. In this thesis we present versions of the
classical PLS algorithm designed for large data sets while
keeping a good predictive power. Among the main results we
highlight PPLS (Parallel PLS), a parallel version for the
case of only one output variable, and DPLS ( Direct PLS), a
fast and approximate version, for the case fo more than one
output variable. On the other hand, we also present some
variants of the regression algorithm that can enhance the
predictive quality based on a non -linear formulation. We
indroduce LPLS (Lifted PLS), for the case of only one
dependent variable based on the theory of kernel functions,
KDPLS, a non-linear formulation for DPLS, and MKPLS, a
multi-kernel algorithm that can result in a more compact
model and a better prediction quality, thankas to the use
of several kernels for the model bulding.

Identiferoai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:4362
Date08 January 2004
CreatorsRAUL PIERRE RENTERIA
ContributorsRUY LUIZ MILIDIU
PublisherMAXWELL
Source SetsPUC Rio
LanguagePortuguese
Detected LanguageEnglish
TypeTEXTO

Page generated in 0.1198 seconds