Spelling suggestions: "subject:"informationtheoretic 1earning"" "subject:"informationtheoretic c1earning""
1 |
Bayesian and Information-Theoretic Learning of High Dimensional DataChen, Minhua January 2012 (has links)
<p>The concept of sparseness is harnessed to learn a low dimensional representation of high dimensional data. This sparseness assumption is exploited in multiple ways. In the Bayesian Elastic Net, a small number of correlated features are identified for the response variable. In the sparse Factor Analysis for biomarker trajectories, the high dimensional gene expression data is reduced to a small number of latent factors, each with a prototypical dynamic trajectory. In the Bayesian Graphical LASSO, the inverse covariance matrix of the data distribution is assumed to be sparse, inducing a sparsely connected Gaussian graph. In the nonparametric Mixture of Factor Analyzers, the covariance matrices in the Gaussian Mixture Model are forced to be low-rank, which is closely related to the concept of block sparsity. </p><p>Finally in the information-theoretic projection design, a linear projection matrix is explicitly sought for information-preserving dimensionality reduction. All the methods mentioned above prove to be effective in learning both simulated and real high dimensional datasets.</p> / Dissertation
|
2 |
EXTRAÇÃO CEGA DE SINAIS COM ESTRUTURAS TEMPORAIS UTILIZANDO ESPAÇOS DE HILBERT REPRODUZIDOS POR KERNEIS / BLIND SIGNAL EXTRACTION WITH TEMPORAL STRUCTURES USING HILBERT SPACE REPRODUCED BY KERNELSantana Júnior, Ewaldo éder Carvalho 10 February 2012 (has links)
Made available in DSpace on 2016-08-17T14:53:18Z (GMT). No. of bitstreams: 1
Dissertacao Ewaldo.pdf: 1169300 bytes, checksum: fc5d4b9840bbafe39d03cd1221da615e (MD5)
Previous issue date: 2012-02-10 / This work derives and evaluates a nonlinear method for Blind Source Extraction (BSE) in a
Reproducing Kernel Hilbert Space (RKHS) framework. For extracting the desired signal from
a mixture a priori information about the autocorrelation function of that signal translated in a
linear transformation of the Gram matrix of the nonlinearly transformed data to the Hilbert
space. Our method proved to be more robust than methods presented in the literature of BSE
with respect to ambiguities in the available a priori information of the signal to be extracted.
The approach here introduced can also be seen as a generalization of Kernel Principal
Component Analysis to analyze autocorrelation matrices at specific time lags. Henceforth, the
method here presented is a kernelization of Dependent Component Analysis, it will be called
Kernel Dependent Component Analysis (KDCA). Also in this dissertation it will be show a
Information-Theoretic Learning perspective of the analysis, this will study the transformations
in the extracted signals probability density functions while linear operations calculated in the
RKHS. / Esta dissertação deriva e avalia um novo método nãolinear para Extração Cega de Sinais
através de operações algébricas em um Espaço de Hilbert Reproduzido por Kernel (RKHS, do
inglês Reproducing Kernel Hilbert Space). O processo de extração de sinais desejados de
misturas é realizado utilizando-se informação sobre a estrutura temporal deste sinal desejado.
No presente trabalho, esta informação temporal será utilizada para realizar uma transformação
linear na matriz de Gram das misturas transformadas para o espaço de Hilbert. Aqui, mostrarse-
á também que o método proposto é mais robusto, com relação a ambigüidades sobre a
informação temporal do sinal desejado, que aqueles previamente apresentados na literatura
para realizar a mesma operação de extração. A abordagem estudada a seguir pode ser vista
como uma generalização da Análise de Componentes Principais utilizando Kerneis para
analisar matriz de autocorrelação dos dados para um atraso específico. Sendo também uma
kernelização da Análise de Componentes Dependentes, o método aqui desenvolvido é
denominado Análise de Componentes Dependentes utilizando Kerneis (KDCA, do inglês
Kernel Dependent Component Analysis). Também será abordada nesta dissertação, a
perspectiva da Aprendizagem de Máquina utilizando Teoria da Informação do novo método
apresentado, mostrando assim, que transformações são realizadas na função densidade de
probabilidade do sinal extraído enquanto que operação lineares são calculadas no RKHS.
|
Page generated in 0.1037 seconds