Spelling suggestions: "subject:"réseaux dde flow génératif"" "subject:"réseaux dde flow générations""
1 |
Advances in uncertainty modelling : from epistemic uncertainty estimation to generalized generative flow networksLahlou, Salem 08 1900 (has links)
Les problèmes de prise de décision se produisent souvent dans des situations d'incertitude, englobant à la fois l'incertitude aléatoire due à la présence de processus inhérents aléatoires et l'incertitude épistémique liée aux connaissances limitées. Cette thèse explore le concept d'incertitude, un aspect crucial de l'apprentissage automatique et un facteur clé pour que les agents rationnels puissent déterminer où allouer leurs ressources afin d'obtenir les meilleurs résultats.
Traditionnellement, l'incertitude est encodée à travers une probabilité postérieure, obtenue par des techniques d'inférence Bayésienne approximatives. Le premier ensemble de contributions de cette thèse tourne autour des propriétés mathématiques des réseaux de flot génératifs, qui sont des modèles probabilistes de séquences discrètes et des échantillonneurs amortis de distributions de probabilités non normalisées. Les réseaux de flot génératifs trouvent des applications dans l'inférence Bayésienne et peuvent être utilisés pour l'estimation de l'incertitude. De plus, ils sont utiles pour les problèmes de recherche dans de vastes espaces compositionnels. Au-delà du renforcement du cadre mathématique sous-jacent, une étude comparative avec les méthodes variationnelles hiérarchiques est fournie, mettant en lumière les importants avantages des réseaux de flot génératifs, tant d'un point de vue théorique que par le biais d'expériences diverses. Ces contributions incluent une théorie étendant les réseaux de flot génératifs à des espaces continus ou plus généraux, ce qui permet de modéliser la probabilité postérieure et l'incertitude dans de nombreux contextes intéressants. La théorie est validée expérimentalement dans divers domaines.
Le deuxième axe de travail de cette thèse concerne les mesures alternatives de l'incertitude épistémique au-delà de la modélisation de la probabilité postérieure. La méthode présentée, appelée Estimation Directe de l'Incertitude Épistémique (DEUP), surmonte une faiblesse majeure des techniques d'inférence Bayésienne approximatives due à la mauvaise spécification du modèle. DEUP repose sur le maintien d'un prédicteur secondaire des erreurs du prédicteur principal, à partir duquel des mesures d'incertitude épistémique peuvent être déduites. / Decision-making problems often occur under uncertainty, encompassing both aleatoric uncertainty arising from inherent randomness in processes and epistemic uncertainty due to limited knowledge. This thesis explores the concept of uncertainty, a crucial aspect of machine learning and a key factor for rational agents to determine where to allocate their resources for achieving the best possible results.
Traditionally, uncertainty is encoded in a posterior distribution, obtained by approximate \textit{Bayesian} inference techniques. This thesis's first set of contributions revolves around the mathematical properties of generative flow networks, which are probabilistic models over discrete sequences and amortized samplers of unnormalized probability distributions. Generative flow networks find applications in Bayesian inference and can be used for uncertainty estimation. Additionally, they are helpful for search problems in large compositional spaces. Beyond deepening the mathematical framework underlying them, a comparative study with hierarchical variational methods is provided, shedding light on the significant advantages of generative flow networks, both from a theoretical point of view and via diverse experiments. These contributions include a theory extending generative flow networks to continuous or more general spaces, which allows modelling the Bayesian posterior and uncertainty in many interesting settings. The theory is experimentally validated in various domains.
This thesis's second line of work is about alternative measures of epistemic uncertainty beyond posterior modelling. The presented method, called Direct Epistemic Uncertainty Estimation (DEUP), overcomes a major shortcoming of approximate Bayesian inference techniques caused by model misspecification. DEUP relies on maintaining a secondary predictor of the errors of the main predictor, from which measures of epistemic uncertainty can be deduced.
|
2 |
Towards an extension of causal discovery with generative flow networks to latent variables modelsManta, Dragos Cristian 12 1900 (has links)
Le raisonnement causal est au centre des facultés intellectuelles humaines qui nous permettent de transférer nos connaissances acquises dans des situations très différentes de l'expérience vécue à partir de peu de nouvelles observations.
En fait, notre science en entier se base sur l'hypothèse qu'on puisse expliquer tous les phénomènes de l'univers à partir d'un nombre relativement petit de principes simples et constants à travers le temps qui donnent naissance au monde complexe qui nous entoure grâce au très grand nombre de conditions expérimentales possibles, qui correspondent à des interventions dans un modèle causal graphique.
La découverte algorithmique de ces mécanismes semble donc être un pilier important, non seulement afin de produire des agents artificiels dotés de capacités cognitives humaines, mais également en vue d'automatiser la découverte scientifique.
Nous nous penchons sur une variante du problème de la découverte causale dans laquelle les données observées ne correspondent pas directement aux variables d'intérêt, que l'on considère latentes.
Nous utilisons les réseaux de flot génératifs pour apprendre une distribution bayésienne a posteriori définie sur la structure des réseaux bayésiens latents et sur les valeurs des variables latentes. / Causal reasoning is at the center of the human intellectual abilities that allow us to transfer our acquired knowledge in situations that are very different from our past experience from few new observations.
In fact, our whole science is based on the assumption that we can explain all the phenomena of the universe from a relatively small set of simple principles that are constant through time and that give rise to the complex world surrounding us due to the very large number of possible experimental conditions that correspond to interventions in a causal graphical model.
The algorithmic discovery of these mechanisms thus seems to be an important pillar, not only to create artificial agents endowed with human cognitive abilities, but also to automate scientific discovery.
We are looking into a variant of the causal discovery problem in which the observed data does not directly correspond to the variables of interest, which we consider to be latent.
We use Generative Flow Networks to learn a Bayesian posterior distribution defined over latent Bayesian networks and over the values of the latent variables.
|
Page generated in 0.0933 seconds