Spelling suggestions: "subject:"energybased"" "subject:"energy.based""
31 |
Algorithmes d'apprentissage pour la recommandationBisson, Valentin 09 1900 (has links)
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation. / The age of information in which we have entered brings with it a whole new set of challenges to take up in many different fields. Making computers process this profuse information is one such challenge, and this thesis focuses on techniques adapted for automatically filtering and recommending to users items that will fit their tastes, in the somehow original context of an online multi-player game. Our objective is to predict players' ratings of the game's levels. We first introduce machine learning concepts necessary to understand the two architectures we then describe; both of which taking advantage of deep learning and unsupervised pre-training concepts to solve the recommendation problem. The first architecture is a multilayered neural network for which we try to explain different performances we get for different settings of depth, training heuristics and unsupervised pre-training methods, namely, straight, denoising and contrative auto-encoders. The second architecture we explore takes its roots in energy-based models. We give possible explanations for the various results it yields depending on the configurations we experimented with. Finally, we describe two successful improvements on this second architecture. The former is a supervised fine-tuning taking place after the unsupervised pre-training, and the latter is a tentative improvement of the fine-tuning phase by using a multi-tasking training criterion. Our experiments show promising results, especially with the architecture inspired from energy-based models, justifying the use of deep learning algorithms to solve the recommendation problem.
|
32 |
Robot semantic place recognition based on deep belief networks and a direct use of tiny images / Robot de reconnaissance des lieux sémantiques basée sur l'architecture profonde et une utilisation directe de mini-imagesHasasneh, Ahmad 23 November 2012 (has links)
Il est généralement facile pour les humains de distinguer rapidement différents lieux en se basant uniquement sur leur aspect visuel. . Ces catégories sémantiques peuvent être utilisées comme information contextuelle favorisant la détection et la reconnaissance d'objets. Des travaux récents en reconnaissance des lieux visent à doter les robots de capacités similaires. Contrairement aux travaux classiques, portant sur la localisation et la cartographie, cette tâche est généralement traitée comme un problème d'apprentissage supervisé.La reconnaissance de lieux sémantiques - la capacité à reconnaître la catégorie sémantique à laquelle une scène appartient – peut être considérée comme une condition essentielle en robotique autonome. Un robot autonome doit en effet pouvoir apprendre facilement l'organisation sémantique de son environnement pour pouvoir fonctionner et interagir avec succès. Pour atteindre cet objectif, différentes méthodes ont déjà été proposées. Certaines sont basées sur l'identification des objets comme une condition préalable à la reconnaissance des scènes, et d'autres fondées sur une description directe des caractéristiques de la scène. Si nous faisons l'hypothèse que les objets sont plus faciles à reconnaître quand la scène dans laquelle ils apparaissent est bien identifiée, la deuxième approche semble plus appropriée. Elle est cependant fortement dépendante de la nature des descripteurs d'images utilisées qui sont généralement dérivés empiriquement a partir des observations générales sur le codage d'images.En opposition avec ces propositions, une autre approche de codage des images, basée sur un point de vue plus théorique, a émergé ces dernières années. Les modèles d'extraction de caractéristiques fondés sur le principe de la minimisation d'une fonction d'énergie en relation avec un modèle statistique génératif expliquant au mieux les données, ont abouti à l'apparition des Machines de Boltzmann Restreintes (Rectricted Boltzmann Machines : RBMs) capables de coder une image comme la superposition d'un nombre limité de caractéristiques extraites à partir d'un plus grand alphabet. Il a été montré que ce processus peut être répété dans une architecture plus profonde, conduisant à une représentation parcimonieuse et efficace des données initiales dans l'espace des caractéristiques. Le problème complexe de la classification dans l'espace de début est ainsi remplacé par un problème plus simple dans l'espace des caractéristiques.Dans ce travail, nous montrons que la reconnaissance sémantiques des lieux peut être réalisée en considérant des mini-images au lieu d'approches plus classiques de type ''sacs-de-mots'' et par l'utilisation de réseaux profonds pour le codage des images. Après avoir realisé un codage approprié, une régression softmax dans l'espace de projection est suffisante pour obtenir des résultats de classification prometteurs. A notre connaissance, cette approche n'a pas encore été proposée pour la reconnaissance de scène en robotique autonome.Nous avons comparé nos méthodes avec les algorithmes de l'état-de-l'art en utilisant une base de données standard de localisation de robot. Nous avons étudié l'influence des paramètres du système et comparé les différentes conditions sur la même base de données. Les expériences réalisées montrent que le modèle que nous proposons, tout en étant très simple, conduit à des résultats comparables à l'état-de-l'art sur une tâche de reconnaissance de lieux sémantiques. / Usually, human beings are able to quickly distinguish between different places, solely from their visual appearance. This is due to the fact that they can organize their space as composed of discrete units. These units, called ``semantic places'', are characterized by their spatial extend and their functional unity. Such a semantic category can thus be used as contextual information which fosters object detection and recognition. Recent works in semantic place recognition seek to endow the robot with similar capabilities. Contrary to classical localization and mapping works, this problem is usually addressed as a supervised learning problem. The question of semantic places recognition in robotics - the ability to recognize the semantic category of a place to which scene belongs to - is therefore a major requirement for the future of autonomous robotics. It is indeed required for an autonomous service robot to be able to recognize the environment in which it lives and to easily learn the organization of this environment in order to operate and interact successfully. To achieve that goal, different methods have been already proposed, some based on the identification of objects as a prerequisite to the recognition of the scenes, and some based on a direct description of the scene characteristics. If we make the hypothesis that objects are more easily recognized when the scene in which they appear is identified, the second approach seems more suitable. It is however strongly dependent on the nature of the image descriptors used, usually empirically derived from general considerations on image coding.Compared to these many proposals, another approach of image coding, based on a more theoretical point of view, has emerged the last few years. Energy-based models of feature extraction based on the principle of minimizing the energy of some function according to the quality of the reconstruction of the image has lead to the Restricted Boltzmann Machines (RBMs) able to code an image as the superposition of a limited number of features taken from a larger alphabet. It has also been shown that this process can be repeated in a deep architecture, leading to a sparse and efficient representation of the initial data in the feature space. A complex problem of classification in the input space is thus transformed into an easier one in the feature space. This approach has been successfully applied to the identification of tiny images from the 80 millions image database of the MIT. In the present work, we demonstrate that semantic place recognition can be achieved on the basis of tiny images instead of conventional Bag-of-Word (BoW) methods and on the use of Deep Belief Networks (DBNs) for image coding. We show that after appropriate coding a softmax regression in the projection space is sufficient to achieve promising classification results. To our knowledge, this approach has not yet been investigated for scene recognition in autonomous robotics. We compare our methods with the state-of-the-art algorithms using a standard database of robot localization. We study the influence of system parameters and compare different conditions on the same dataset. These experiments show that our proposed model, while being very simple, leads to state-of-the-art results on a semantic place recognition task.
|
33 |
Une méthode énergétique pour les systèmes vibro-acoustiques couplés / An energy based method for coupled vibro-acoustic systemsStelzer, Rainer 28 September 2012 (has links)
Ce mémoire de thèse présente le développement de la méthode «statistical modal energy distribution analysis (SmEdA)» pour des systèmes vibro-acoustiques couplés. Cette méthode de calcul est basée sur le bilan énergétique dans des sous-systèmes fermés couplés, comme une structure ou une cavité. L’interaction entre de tels systèmes est décrite par des couplages entre les modes. La version initiale de SmEdA prend en compte seulement les modes qui ont une fréquence propre dans le bande d’excitation. Le travail présenté ici étudie l’effet des modes non résonants sur la réponse et identifie les cas dans lesquels un tel effet devient important. L’introduction des modes non résonants permet d’utiliser la méthode SmEdA dans des cas d’applications plus larges. En outre, une nouvelle méthode de post-traitement a été développée pour calculer des distributions d'énergie dans les sous-systèmes. Finalement, une nouvelle méthode d'approximation pour la prise en compte des modes de systèmes de grandes dimensions ou mal définis a été formulée. Toutes ces méthodes ont été comparées avec d’autres méthodes de calcul via des exemples académiques et industriels. Ainsi, la nouvelle version de SmEdA incluant le post-traitement pour obtenir des distributions d'énergie a été validé et les avantages et possibilités d'applications sont montrés. / This dissertation presents the further development of the statistical modal energy distribution analysis (SmEdA) for vibro-acoustic coupled problems. This prediction method is based on the energy balance in bounded coupled subsystems, like a structure or a cavity. The interaction between such subsystems is described by mode-to-mode coupling. The original SmEdA formulation takes into account only the modes having the eigenfrequencies within the excitation band. The present work investigates the effect of non resonant modes to the response and identifies cases in which such an effect becomes important. The inclusion of non resonant modes has thus resulted in a new SmEdA formulation which can be used in extended applications. Furthermore, a new post-processing method has been developed to predict energy distribution within subsystems. Finally a novel approximation method for handling modes of huge or ill-defined systems has been formulated. All these methods have been compared to other prediction methods via academic and industrial examples. In this way, the extended SmEdA approach including the post-processing for energy distribution has been validated and its advantages and application possibilities have been demonstrated.
|
34 |
Planejamento de curto prazo de redes de distribuição de energia elétrica considerando incertezas na geração e demanda /Melgar Dominguez, Ozy Daniel. January 2018 (has links)
Orientador: José Roberto Sanches Mantovani / Resumo: O planejamento de curto prazo é uma estratégia de tomada de decisão que visa assegurar o desempenho adequado de um sistema de distribuição de energia elétrica e fornecer um produto de alta qualidade aos usuários finais. Este processo considera ações tradicionais para um controle efetivo no fluxo de potência reativa, fator de potência e magnitude de tensão nas barras do sistema. Nos últimos anos, este tipo de planejamento enfrenta-se com significativos desafios devido à integração de novas tecnologias e a filosofia de operação das redes de distribuição de média tensão. Desta forma, o desenvolvimento de algoritmos e ferramentas computacionais sofisticadas são necessárias para contornar essas complexidades. Nessa perspectiva, neste trabalho apresenta-se uma estratégia para a solução do problema de planejamento de curto prazo para redes de distribuição. Em que, a integração de unidades de geração distribuída e sistemas de armazenamento de energia elétrica é considerada simultaneamente com as ações tradicionais de planejamento para melhorar a eficiência do sistema. Diferentes alternativas de investimento, tais como a localização e dimensionamento de bancos de capacitores, unidades de armazenamento de energia e unidades de geração baseadas em energia fotovoltaica e eólica, seleção e substituição de condutores dos circuitos sobrecarregados e alocação de reguladores de tensão são consideradas como variáveis de decisão no problema de otimização. Adicionalmente, na formulação deste pro... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Short-term planning is a decision-making strategy that aims to enhance proper electric distribution network performance and provide high-quality service to consumers. This process considers traditional planning actions to effectively control the reactive power flow, power factor, and the voltage profile of the network. In the last years, this type of distribution network planning has faced important challenges due to the integration of modern technologies and operating aspects of medium-voltage distribution networks. In this regard, development of sophisticated algorithms and computational tools are necessary to cope with these complexities. In this perspective, a strategy to determine the solution of the short-term planning problem for distribution networks is presented in this work, where, integration of distributed generation units and electric energy storage systems are considered simultaneously with traditional planning actions to improve the network performance. Several investment alternatives such as siting and sizing of capacitors banks, energy storage systems, photovoltaic- and wind- based generation units, conductor replacement of overloaded circuits, and voltage regulators allocation are considered as decision variables in the optimization problem. Additionally, environmental aspects at distribution level are duly addressed via Cap and Trade mechanism. Inherently, this optimization problem is represented by a non-convex mixed integer nonlinear programming problem. ... (Complete abstract click electronic access below) / Doutor
|
35 |
Improved training of energy-based modelsKumar, Rithesh 06 1900 (has links)
No description available.
|
36 |
Characterization of Fatigue Cracking and Healing of Asphalt MixturesLuo, Xue 2012 May 1900 (has links)
Fatigue cracking is one of the most common distresses of asphalt pavements, whereas healing is a counter process to cracking which alleviates cracking damage and extends fatigue life of asphalt pavements. Most of existing methods to characterize fatigue cracking and healing are generally empirical or phenomenological in nature, which does not satisfy the need to develop mechanistic-based pavement design methods. The objective of this study is to characterize fatigue cracking and healing of asphalt mixtures using an energy-based mechanistic approach.
A controlled-strain repeated direct tension (RDT) test is selected to generate both fatigue cracking and permanent deformation in an asphalt mixture specimen. Fatigue cracking is separated from permanent deformation from a mechanical viewpoint. The development of fatigue cracking is described by the evolution of the damage density and the increase of the average crack size with the increase of loading cycles.
A creep and step-loading recovery (CSR) test is designed to measure the internal stress in the recovery phase of an asphalt mixture specimen. The internal stress and the strain measured in the recovery phase are used to conduct the mechanistic analysis of recovery and healing of the asphalt mixture specimen. Then healing is described using the decrease of the damage density and average crack size with time.
Different types of asphalt mixtures produce distinctly different fatigue cracking and healing characteristics. The effect of mixture composition, temperature, and aging are evaluated using the approach above. The entire series of tests for fatigue, permanent deformation and healing can be completed in one day, with the healing part requiring only a matter of minutes. The methods proposed in this study characterize fatigue cracking and healing of asphalt mixtures using its essential cause and effect relationship.
|
37 |
Training deep convolutional architectures for visionDesjardins, Guillaume 08 1900 (has links)
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche.
Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images.
Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation.
Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs. / High-level vision tasks such as generic object recognition remain out of reach for modern Artificial Intelligence systems. A promising approach involves learning algorithms, such as the Arficial Neural Network (ANN), which automatically learn to extract useful features for the task at hand. For ANNs, this represents a difficult optimization problem however. Deep Belief Networks have thus been proposed as a way to guide the discovery of intermediate representations, through a greedy unsupervised training of stacked Restricted Boltzmann Machines (RBM). The articles presented here-in represent contributions to this field of research.
The first article introduces the convolutional RBM. By mimicking local receptive fields and tying the parameters of hidden units within the same feature map, we considerably reduce the number of parameters to learn and enforce local, shift-equivariant feature detectors. This translates to better likelihood scores, compared to RBMs trained on small image patches.
In the second article, recent discoveries in neuroscience motivate an investigation into the impact of higher-order units on visual classification, along with the evaluation of a novel activation function. We show that ANNs with quadratic units using the softsign activation function offer better generalization error across several tasks. Finally, the third article gives a critical look at recently proposed RBM training algorithms. We show that Contrastive Divergence (CD) and Persistent CD are brittle in that they require the energy landscape to be smooth in order for their negative chain to mix well. PCD with fast-weights addresses the issue by performing small model perturbations, but may result in spurious samples. We propose using simulated tempering to draw negative samples. This leads to better generative models and increased robustness to various hyperparameters.
|
38 |
Algorithmes d'apprentissage pour la recommandationBisson, Valentin 09 1900 (has links)
L'ère numérique dans laquelle nous sommes entrés apporte une quantité importante de nouveaux défis à relever dans une multitude de domaines. Le traitement automatique de l'abondante information à notre disposition est l'un de ces défis, et nous allons ici nous pencher sur des méthodes et techniques adaptées au filtrage et à la recommandation à l'utilisateur d'articles adaptés à ses goûts, dans le contexte particulier et sans précédent notable du jeu vidéo multi-joueurs en ligne. Notre objectif est de prédire l'appréciation des niveaux par les joueurs. Au moyen d'algorithmes d'apprentissage machine modernes tels que les réseaux de neurones profonds avec pré-entrainement non-supervisé, que nous décrivons après une introduction aux concepts nécessaires à leur bonne compréhension, nous proposons deux architectures aux caractéristiques différentes bien que basées sur ce même concept d'apprentissage profond. La première est un réseau de neurones multi-couches pour lequel nous tentons d'expliquer les performances variables que nous rapportons sur les expériences menées pour diverses variations de profondeur, d'heuristique d'entraînement, et des méthodes de pré-entraînement non-supervisé simple, débruitant et contractant. Pour la seconde architecture, nous nous inspirons des modèles à énergie et proposons de même une explication des résultats obtenus, variables eux aussi. Enfin, nous décrivons une première tentative fructueuse d'amélioration de cette seconde architecture au moyen d'un fine-tuning supervisé succédant le pré-entrainement, puis une seconde tentative où ce fine-tuning est fait au moyen d'un critère d'entraînement semi-supervisé multi-tâches. Nos expériences montrent des performances prometteuses, notament avec l'architecture inspirée des modèles à énergie, justifiant du moins l'utilisation d'algorithmes d'apprentissage profonds pour résoudre le problème de la recommandation. / The age of information in which we have entered brings with it a whole new set of challenges to take up in many different fields. Making computers process this profuse information is one such challenge, and this thesis focuses on techniques adapted for automatically filtering and recommending to users items that will fit their tastes, in the somehow original context of an online multi-player game. Our objective is to predict players' ratings of the game's levels. We first introduce machine learning concepts necessary to understand the two architectures we then describe; both of which taking advantage of deep learning and unsupervised pre-training concepts to solve the recommendation problem. The first architecture is a multilayered neural network for which we try to explain different performances we get for different settings of depth, training heuristics and unsupervised pre-training methods, namely, straight, denoising and contrative auto-encoders. The second architecture we explore takes its roots in energy-based models. We give possible explanations for the various results it yields depending on the configurations we experimented with. Finally, we describe two successful improvements on this second architecture. The former is a supervised fine-tuning taking place after the unsupervised pre-training, and the latter is a tentative improvement of the fine-tuning phase by using a multi-tasking training criterion. Our experiments show promising results, especially with the architecture inspired from energy-based models, justifying the use of deep learning algorithms to solve the recommendation problem.
|
39 |
A method for correcting a moving heat source in analyses with coarse temporal discretizationPartzsch, Marian, Beitelschmidt, Michael, Khonsari, Michael M. 04 November 2019 (has links)
The numerical simulation of a moving heat source from a fixed point observer is often done by discretely adjusting its position over the steps of a thermal transient analysis. The efficiency of these simulations is increased when using a coarse temporal discretization whilst maintaining the quality of results. One systematic error source is the rare update of a nonconstant moving heat source with regard to its magnitude and location. In this work, we present an analysis of the error and propose a correction approach based on conserving the specified heat from a continuous motion in analyses with large time-step sizes. Deficiencies associated with the correction in special motion situations are identified by means of performance studies and the approach is extended accordingly. The advantages of applying the proposed correction are demonstrated through examples.
|
40 |
Efficient and Scalable Subgraph Statistics using Regenerative Markov Chain Monte CarloMayank Kakodkar (12463929) 26 April 2022 (has links)
<p>In recent years there has been a growing interest in data mining and graph machine learning for techniques that can obtain frequencies of <em>k</em>-node Connected Induced Subgraphs (<em>k</em>-CIS) contained in large real-world graphs. While recent work has shown that 5-CISs can be counted exactly, no exact polynomial-time algorithms are known that solve this task for <em>k </em>> 5. In the past, sampling-based algorithms that work well in moderately-sized graphs for <em>k</em> ≤ 8 have been proposed. In this thesis I push this boundary up to <em>k</em> ≤ 16 for graphs containing up to 120M edges, and to <em>k</em> ≤ 25 for smaller graphs containing between a million to 20M edges. I do so by re-imagining two older, but elegant and memory-efficient algorithms -- FANMOD and PSRW -- which have large estimation errors by modern standards. This is because FANMOD produces highly correlated k-CIS samples and the cost of sampling the PSRW Markov chain becomes prohibitively expensive for k-CIS’s larger than <em>k </em>> 8.</p>
<p>In this thesis, I introduce:</p>
<p>(a) <strong>RTS:</strong> a novel regenerative Markov chain Monte Carlo (MCMC) sampling procedure on the tree, generated on-the-fly by the FANMOD algorithm. RTS is able to run on multiple cores and multiple machines (embarrassingly parallel) and compute confidence intervals of estimates, all this while preserving the memory-efficient nature of FANMOD. RTS is thus able to estimate subgraph statistics for <em>k</em> ≤ 16 for larger graphs containing up to 120M edges, and for <em>k</em> ≤ 25 for smaller graphs containing between a million to 20M edges.</p>
<p>(b) <strong>R-PSRW:</strong> which scales the PSRW algorithm to larger CIS-sizes using a rejection sampling procedure to efficiently sample transitions from the PSRW Markov chain. R-PSRW matches RTS in terms of scaling to larger CIS sizes.</p>
<p>(c) <strong>Ripple:</strong> which achieves unprecedented scalability by stratifying the R-PSRW Markov chain state-space into ordered strata via a new technique that I call <em>sequential stratified regeneration</em>. I show that the Ripple estimator is consistent, highly parallelizable, and scales well. Ripple is able to <em>count</em> CISs of size up to <em>k </em>≤ 12 in real world graphs containing up to 120M edges.</p>
<p>My empirical results show that the proposed methods offer a considerable improvement over the state-of-the-art. Moreover my methods are able to run at a scale that has been considered unreachable until now, not only by prior MCMC-based methods but also by other sampling approaches. </p>
<p><strong>Optimization of Restricted Boltzmann Machines. </strong>In addition, I also propose a regenerative transformation of MCMC samplers of Restricted Boltzmann Machines RBMs. My approach, Markov Chain Las Vegas (MCLV) gives statistical guarantees in exchange for random running times. MCLV uses a stopping set built from the training data and has a maximum number of Markov chain step-count <em>K</em> (referred as MCLV-<em>K</em>). I present a MCLV-<em>K</em> gradient estimator (LVS-<em>K</em>) for RBMs and explore the correspondence and differences between LVS-<em>K</em> and Contrastive Divergence (CD-<em>K</em>). LVS-<em>K</em> significantly outperforms CD-<em>K</em> in the task of training RBMs over the MNIST dataset, indicating MCLV to be a promising direction in learning generative models.</p>
|
Page generated in 0.0524 seconds