Return to search

Beyond the status quo in deep reinforcement learning

L’apprentissage par renforcement profond (RL) a connu d’énormes progrès ces dernières
années, mais il est encore difficile d’appliquer le RL aux problèmes de prise de décision du
monde réel. Cette thèse identifie trois défis clés avec la façon dont nous faisons la recherche RL elle-même qui entravent les progrès de la recherche RL.
— Évaluation et comparaison peu fiables des algorithmes RL ; les méthodes d’évaluation actuelles conduisent souvent à des résultats peu fiables.
— Manque d’informations préalables dans la recherche RL ; Les algorithmes RL sont souvent formés à partir de zéro, ce qui peut nécessiter de grandes quantités de données ou de ressources informatiques.
— Manque de compréhension de la façon dont les réseaux de neurones profonds interagissent avec RL, ce qui rend difficile le développement de méthodes évolutives de RL.

Pour relever ces défis susmentionnés, cette thèse apporte les contributions suivantes :
— Une méthodologie plus rigoureuse pour évaluer les algorithmes RL.
— Un flux de travail de recherche alternatif qui se concentre sur la réutilisation des progrès existants sur une tâche.
— Identification d’un phénomène de perte de capacité implicite avec un entraînement RL hors ligne prolongé.

Dans l’ensemble, cette thèse remet en question le statu quo dans le RL profond et montre comment cela peut conduire à des algorithmes de RL plus efficaces, fiables et mieux applicables dans le monde réel. / Deep reinforcement learning (RL) has seen tremendous progress in recent years, but it is still difficult to apply RL to real-world decision-making problems. This thesis identifies three key challenges with how we do RL research itself that hinder the progress of RL research.
— Unreliable evaluation and comparison of RL algorithms; current evaluation methods often lead to unreliable results.
— Lack of prior information in RL research; RL algorithms are often trained from scratch, which can require large amounts of data or computational resources.
— Lack of understanding of how deep neural networks interact with RL, making it hard to develop scalable RL methods.

To tackle these aforementioned challenges, this thesis makes the following contributions:
— A more rigorous methodology for evaluating RL algorithms.
— An alternative research workflow that focuses on reusing existing progress on a task.
— Identifying an implicit capacity loss phenomenon with prolonged offline RL training.

Overall, this thesis challenges the status quo in deep reinforcement learning and shows that doing so can make RL more efficient, reliable and improve its real-world applicability

Identiferoai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/33388
Date05 1900
CreatorsAgarwal, Rishabh
ContributorsCourville, Aaron, Bellemare, Marc
Source SetsUniversité de Montréal
LanguageEnglish
Detected LanguageFrench
Typethesis, thèse
Formatapplication/pdf

Page generated in 0.0026 seconds