Spelling suggestions: "subject:"variationnel"" "subject:"variationnels""
31 |
Modélisation et simulation Eulériennes des écoulements diphasiques à phases séparées et dispersées : développement d’une modélisation unifiée et de méthodes numériques adaptées au calcul massivement parallèle / Eulerian modeling and simulations of separated and disperse two-phase flows : development of a unified modeling approach and associated numerical methods for highly parallel computationsDrui, Florence 07 July 2017 (has links)
Dans un contexte industriel, l’utilisation de modèles diphasiques d’ordre réduit est nécessaire pour pouvoir effectuer des simulations numériques prédictives d’injection de combustible liquide dans les chambres de combustion automobiles et aéronautiques, afin de concevoir des équipements plus performants et moins polluants. Le processus d’atomisation du combustible, depuis sa sortie de l’injecteur sous un régime de phases séparées, jusqu’au brouillard de gouttelettes dispersées, est l’un des facteurs clés d’une combustion de bonne qualité. Aujourd’hui cependant, la prise en compte de toutes les échelles physiques impliquées dans ce processus nécessite une avancée majeure en termes de modélisation, de méthodes numériques et de calcul haute performance (HPC). Ces trois aspects sont abordés dans cette thèse. Premièrement, des modèles de mélange, dérivés par le principe variationnel de Hamilton et le second principe de la thermodynamique sont étudiés. Ils sont alors enrichis afin de pouvoir décrire des pulsations des interfaces au niveau de la sous-échelle. Des comparaisons avec des données expérimentales dans un contexte de milieux à bulles permettent de vérifier la cohérence physique des modèles et de valider la méthodologie. Deuxièmement, une stratégie de discrétisation est développée, basée sur une séparation d’opérateur, permettant la résolution indépendante de la partie convective des systèmes à l’aide de solveurs de Riemann approchés standards et les termes sources à l’aide d’intégrateurs d’équations différentielles ordinaires. Ces différentes méthodes répondent aux particularités des systèmes diphasiques compressibles, ainsi qu’au choix de l’utilisation de maillages adaptatifs (AMR). Pour ces derniers, une stratégie spécifique est développée : il s’agit du choix de critères de raffinement et de la projection de la solution d’une grille à une autre (plus fine ou plus grossière). Enfin, l’utilisation de l’AMR dans un cadre HPC est rendue possible grâce à la bibliothèque AMR p4est, laquelle a montré une excellente scalabilité jusqu’à plusieurs milliers de coeurs de calcul. Un code applicatif, CanoP, a été développé et permet de simuler des écoulements fluides avec des méthodes de volumes finis sur des maillages AMR. CanoP pourra être utilisé pour des futures simulations d’atomisation liquide. / In an industrial context, reduced-order two-phase models are used in predictive simulations of the liquid fuel injection in combustion chambers and help designing more efficient and less polluting devices. The combustion quality strongly depends on the atomization process, starting from the separated phase flow at the exit of the nozzle down to the cloud of fuel droplets characterized by a disperse-phase flow. Today, simulating all the physical scales involved in this process requires a major breakthrough in terms of modeling, numerical methods and high performance computing (HPC). These three aspects are addressed in this thesis. First, we are interested in mixture models, derived through Hamilton’s variational principle and the second principle of thermodynamics. We enrich these models, so that they can describe sub-scale pulsations mechanisms. Comparisons with experimental data in a context of bubbly flows enables to assess the models and the methodology. Based on a geometrical study of the interface evolution, new tracks are then proposed for further enriching the mixture models using the same methodology. Second, we propose a numerical strategy based on finite volume methods composed of an operator splitting strategy, approximate Riemann solvers for the resolution of the convective part and specific ODE solvers for the source terms. These methods have been adapted so as to handle several difficulties related to two-phase flows, like the large acoustic impedance ratio, the stiffness of the source terms and low-Mach issues. Moreover, a cell-based Adaptive Mesh Refinement (AMR) strategy is considered. This involves to develop refinement criteria, the setting of the solution values on the new grids and to adapt the standard methods for regular structured grids to non-conforming grids. Finally, the scalability of this AMR tool relies on the p4est AMR library, that shows excellent scalability on several thousands cores. A code named CanoP has been developed and enables to solve fluid dynamics equations on AMR grids. We show that CanoP can be used for future simulations of the liquid atomization.
|
32 |
Probability flows in deep learningHuang, Chin-Wei 10 1900 (has links)
Les modèles génératifs basés sur la vraisemblance sont des éléments fondamentaux pour la modélisation statistique des données structurées. Ils peuvent être utilisés pour synthétiser des échantillons de données réalistes, et la fonction de vraisemblance peut être utilisée pour comparer les modèles et déduire diverses quantités statistiques. Cependant, le défi réside dans le développement de modèles capables de saisir avec précision les schémas statistiques présentés dans la distribution des données. Les modèles existants rencontrent souvent des limitations en termes de flexibilité représentationnelle et d’évolutivité computationnelle en raison du choix de la paramétrisation, freinant ainsi la progression vers cet idéal.
Cette thèse présente une exploration systématique des structures appropriées qui peuvent être exploitées pour concevoir des modèles génératifs basés sur la vraisemblance, allant des architectures spécialisées telles que les applications triangulaires et les applications de potentiel convexes aux systèmes dynamiques paramétriques tels que les équations différentielles neuronales qui présentent des contraintes minimales en termes de paramétrisation. Les modèles proposés sont fondés sur des motivations théoriques et sont analysés à travers le prisme du changement de variable associé au processus de génération de données. Cette perspective permet de considérer ces modèles comme des formes distinctes de probability flows, unifiant ainsi des classes apparemment non liées de modèles génératifs basés sur la vraisemblance. De plus, des conceptions algorithmiques pratiques sont introduites pour calculer, approximer ou estimer les quantités nécessaires pour l’apprentissage et l’évaluation.
Il est prévu que cette thèse suscite l’intérêt des communautés de modélisation générative et d’apprentissage automatique Bayésien/probabiliste, et qu’elle serve de ressource précieuse et d’inspiration pour les chercheurs et les praticiens du domaine. / Likelihood-based generative models are fundamental building blocks for statistical modeling of structured data. They can be used to synthesize realistic data samples, and the likelihood function can be used for comparing models and inferring various statistical quantities. However, the challenge lies in developing models capable of accurately capturing the statistical patterns presented in the data distribution. Existing models often face limitations in representational flexibility and computational scalability due to the choice of parameterization, impeding progress towards this ideal.
This thesis presents a systematic exploration of suitable structures that can be exploited to design likelihood-based generative models, spanning from specialized architectures like triangular maps and convex potential maps to parametric dynamical systems such as neural differential equations that bear minimal parameterization restrictions. The proposed models are rooted in theoretical foundations and analyzed through the lens of the associated change of variable in the data generation process. This perspective allows for viewing these models as distinct forms of probability flows, thereby unifying seemingly unrelated classes of likelihood-based generative models. Moreover, practical algorithmic designs are introduced to compute, approximate, or estimate necessary quantities for training and testing purposes.
It is anticipated that this thesis would be of interest to the generative modeling and Bayesian/probabilistic machine learning communities, and will serve as a valuable resource and inspiration for both researchers and practitioners in the field.
|
33 |
Espaces dynamiques réduits en physique de la matière condensée :<br />Systèmes à effet Hall bicouches, réduction dimensionnelle et systèmes de spins magnétiquesMöller, Gunnar 21 September 2006 (has links) (PDF)
Pour la description des propriétés de basse température des systèmes en physique de la matière condensée, il est souvent utile de travailler avec un espace dynamique réduit. Cette philosophie s'applique aux systèmes bicouches à effet Hall quantique comme aux systèmes d'anyons et aux systèmes magnétiques frustrés qui représentent les exemples discutés dans cette thèse. <br /><br />On introduit une classe générale d'états appariés de fermions composites. Ces fonctions d'onde sont exploitées pour analyser l'état fondamental des systèmes bicouches à effet Hall au facteur de remplissage total un. A partir d'une étude de Monte Carlo variationnel nous concluons que la transition de phase compressible à incompressible observée dans ce système est du deuxième ordre. Nous étudions également la question de l'existence d'un état apparié à demi-remplissage dans les simples couches. Ensuite nous considérons des schémas de réduction dimensionnelle de systèmes bidimensionnels sur la sphère vers des systèmes unidimensionnels sur le cercle. Un tel mapping est établi pour des systèmes libres et un candidat pour un système d'anyons généralisé est proposé. Finalement, nous analysons les systèmes de spins magnétiques sur réseaux bidimensionnels et discutons si un état de glace de spins peut exister en présence d'interactions dipolaires à longue portée.
|
34 |
La découverte de nouvelle physique à l'aide de la détection d'anomalies avec l'apprentissage automatique au Grand collisionneur de hadronsLeissner-Martin, Julien 12 1900 (has links)
La physique des particules est une branche de la science qui est actuellement régie sous un ensemble de lois nommé le \textit{modèle standard} (MS). Il dicte notamment quelles particules existent et comment elles interagissent entre elles. Il permet de prédire toutes sortes de résultats qui sont constamment testés et confirmés par une multitude d'expériences, dont l'expérience ATLAS, au Grand Collisionneur de Hadrons (LHC). Toutefois, ce modèle hautement précis et juste ne peut décrire qu'environ 5\% de la matière de l'Univers et s'avère donc incomplet. Les scientifiques passent au peigne fin plusieurs études pour y retrouver de la nouvelle physique, mais en vain. \\
Les théoriciens ne sont pas en reste non plus, et ont concocté plusieurs théories pouvant être vues comme des extensions du modèle standard. Malheureusement, plus de dix ans après la découverte du boson de Higgs au LHC qui venait confirmer la théorie actuelle du MS, aucun signe de ces extensions n'a pu être trouvé. Nous proposons dans ce mémoire d'utiliser l'intelligence artificielle pour aider à trouver certains indices de nouvelle physique. \\
Pour ce faire, nous entraînerons des modèles d'apprentissage automatique \textit{(machine learning)} à reconnaître des signes de la nouvelle physique dans des données réelles ou simulées issues de collisions proton-proton au sein du détecteur ATLAS. Ce détecteur oeuvre au LHC, le plus grand collisionneur au monde, où nos données proviennent d'énergies de centre de masse de \mbox{13 TeV.} Nous utiliserons les quadrivecteurs des particules contenues dans les jets boostés à grand rayon, des amas collimatés de particules présents dans ATLAS, qui pourraient contenir cette fameuse nouvelle physique. Dans ce mémoire, nous tenterons entre autres de retrouver des signaux de quarks top ainsi que de particules hypothétiques issues d'un modèle avec un secteur étendu du boson de Higgs. \\
Actuellement, nos modèles sont capables de bien distinguer le signal du bruit de fond. Toutefois, les résultats sont corrélés à la masse des jets et toute tentative pour contrecarrer cette corrélation diminue de beaucoup la discrimination du signal et du bruit de fond. De plus, nous devrons améliorer le rejet du bruit de fond pour espérer retrouver de la nouvelle physique dans les données d'ATLAS. \\
\textbf{Mots-clés : physique des particules, LHC, Grand collisionneur de hadrons, ATLAS, CERN, intelligence artificielle, apprentissage automatique, réseau de neurones, auto-encodeur variationnel, anomalies, jet boosté, jet à grand rayon} / Particle physics is currently governed by a set of laws called the Standard Model. This model notably includes which particles exist and how they interact with one another. It also allows the prediction of many results which are constantly tested and confirmed by all kinds of experiments, like the ATLAS experiment at the Large Hadron Collider (LHC). However, this highly precise model can only describe 5\% of the Universe, so it is incomplete. Scientists across the globe analyzed all kinds of data to find new physics, but to no avail. \\
Theorists also aren't resting, and have concocted many new theories which can be seen as Standard Model extensions. Unfortunately, more than ten years after the discovery of the Higgs boson at LHC that confirmed the last bits of the Standard Model, no signs of these extensions have been found. In light of this, we propose to use artificial intelligence to help us find signs of new physics. \\
To perform this task, we will train machine learning models to recognize signs of new physics inside real or simulated data originating from proton-proton collisions in the ATLAS detector. This detector operates at LHC, the biggest particle collider in the world, where our data will come from center-of-mass energies of \mbox{13 TeV.} We will use four-vectors of particles contained within large radius and boosted jets, which are dense streams of particles present in ATLAS and where new physics might hide. In this dissertation, we will notably try to find signals of top quarks and hypothetical particles originating from a model with an extended Higgs boson sector. \\
Currently, our models are able to distinguish between signal and background noise. However, these results are heavily correlated to jet mass, and any attempt at diminishing this correlation yields worse discriminating power between signal and background. We will also need to improve the background rejection to hope find new physics in the ATLAS data. \\
\textbf{Keywords : particle physics, LHC, ATLAS, CERN, artificial intelligence, deep learning, neural network, variational autoencoder, anomaly, boosted jet, large radius jet}
|
35 |
Contributions au calcul des variations et au principe du maximum de Pontryagin en calculs time scale et fractionnaire / Contributions to calculus of variations and to Pontryagin maximum principle in time scale calculus and fractional calculusBourdin, Loïc 18 June 2013 (has links)
Cette thèse est une contribution au calcul des variations et à la théorie du contrôle optimal dans les cadres discret, plus généralement time scale, et fractionnaire. Ces deux domaines ont récemment connu un développement considérable dû pour l’un à son application en informatique et pour l’autre à son essor dans des problèmes physiques de diffusion anormale. Que ce soit dans le cadre time scale ou dans le cadre fractionnaire, nos objectifs sont de : a) développer un calcul des variations et étendre quelques résultats classiques (voir plus bas); b) établir un principe du maximum de Pontryagin (PMP en abrégé) pour des problèmes de contrôle optimal. Dans ce but, nous généralisons plusieurs méthodes variationnelles usuelles, allant du simple calcul des variations au principe variationnel d’Ekeland (couplé avec la technique des variations-aiguilles), en passant par l’étude d’invariances variationnelles par des groupes de transformations. Les démonstrations des PMPs nous amènent également à employer des théorèmes de point fixe et à prendre en considération la technique des multiplicateurs de Lagrange ou encore une méthode basée sur un théorème d’inversion locale conique. Ce manuscrit est donc composé de deux parties : la Partie 1 traite de problèmes variationnels posés sur time scale et la Partie 2 est consacrée à leurs pendants fractionnaires. Dans chacune de ces deux parties, nous suivons l’organisation suivante : 1. détermination de l’équation d’Euler-Lagrange caractérisant les points critiques d’une fonctionnelle Lagrangienne ; 2. énoncé d’un théorème de type Noether assurant l’existence d’une constante de mouvement pour les équations d’Euler-Lagrange admettant une symétrie ; 3. énoncé d’un théorème de type Tonelli assurant l’existence d’un minimiseur pour une fonctionnelle Lagrangienne et donc, par la même occasion, d’une solution pour l’équation d’Euler-Lagrange associée (uniquement en Partie 2) ; 4. énoncé d’un PMP (version forte en Partie 1, version faible en Partie 2) donnant une condition nécessaire pour les trajectoires qui sont solutions de problèmes de contrôle optimal généraux non-linéaires ; 5. détermination d’une condition de type Helmholtz caractérisant les équations provenant d’un calcul des variations (uniquement en Partie 1 et uniquement dans les cas purement continu et purement discret). Des théorèmes de type Cauchy-Lipschitz nécessaires à l’étude de problèmes de contrôle optimal sont démontrés en Annexe. / This dissertation deals with the mathematical fields called calculus of variations and optimal control theory. More precisely, we develop some aspects of these two domains in discrete, more generally time scale, and fractional frameworks. Indeed, these two settings have recently experience a significant development due to its applications in computing for the first one and to its emergence in physical contexts of anomalous diffusion for the second one. In both frameworks, our goals are: a) to develop a calculus of variations and extend some classical results (see below); b) to state a Pontryagin maximum principle (denoted in short PMP) for optimal control problems. Towards these purposes, we generalize several classical variational methods, including the Ekeland’s variational principle (combined with needle-like variations) as well as variational invariances via the action of groups of transformations. Furthermore, the investigations for PMPs lead us to use fixed point theorems and to consider the Lagrange multiplier technique and a method based on a conic implicit function theorem. This manuscript is made up of two parts : Part A deals with variational problems on time scale and Part B is devoted to their fractional analogues. In each of these parts, we follow (with minor differences) the following organization: 1. obtaining of an Euler-Lagrange equation characterizing the critical points of a Lagrangian functional; 2. statement of a Noether-type theorem ensuring the existence of a constant of motion for Euler-Lagrange equations admitting a symmetry;3. statement of a Tonelli-type theorem ensuring the existence of a minimizer for a Lagrangian functional and, consequently, of a solution for the corresponding Euler-Lagrange equation (only in Part B); 4. statement of a PMP (strong version in Part A and weak version in Part B) giving a necessary condition for the solutions of general nonlinear optimal control problems; 5. obtaining of a Helmholtz condition characterizing the equations deriving from a calculus of variations (only in Part A and only in the purely continuous and purely discrete cases). Some Picard-Lindelöf type theorems necessary for the analysis of optimal control problems are obtained in Appendices.
|
36 |
A deep learning theory for neural networks grounded in physicsScellier, Benjamin 12 1900 (has links)
Au cours de la dernière décennie, l'apprentissage profond est devenu une composante majeure de l'intelligence artificielle, ayant mené à une série d'avancées capitales dans une variété de domaines. L'un des piliers de l'apprentissage profond est l'optimisation de fonction de coût par l'algorithme du gradient stochastique (SGD). Traditionnellement en apprentissage profond, les réseaux de neurones sont des fonctions mathématiques différentiables, et les gradients requis pour l'algorithme SGD sont calculés par rétropropagation. Cependant, les architectures informatiques sur lesquelles ces réseaux de neurones sont implémentés et entraînés souffrent d’inefficacités en vitesse et en énergie, dues à la séparation de la mémoire et des calculs dans ces architectures. Pour résoudre ces problèmes, le neuromorphique vise à implementer les réseaux de neurones dans des architectures qui fusionnent mémoire et calculs, imitant plus fidèlement le cerveau. Dans cette thèse, nous soutenons que pour construire efficacement des réseaux de neurones dans des architectures neuromorphiques, il est nécessaire de repenser les algorithmes pour les implémenter et les entraîner. Nous présentons un cadre mathématique alternative, compatible lui aussi avec l’algorithme SGD, qui permet de concevoir des réseaux de neurones dans des substrats qui exploitent mieux les lois de la physique. Notre cadre mathématique s'applique à une très large classe de modèles, à savoir les systèmes dont l'état ou la dynamique sont décrits par des équations variationnelles. La procédure pour calculer les gradients de la fonction de coût dans de tels systèmes (qui dans de nombreux cas pratiques ne nécessite que de l'information locale pour chaque paramètre) est appelée “equilibrium propagation” (EqProp). Comme beaucoup de systèmes en physique et en ingénierie peuvent être décrits par des principes variationnels, notre cadre mathématique peut potentiellement s'appliquer à une grande variété de systèmes physiques, dont les applications vont au delà du neuromorphique et touchent divers champs d'ingénierie. / In the last decade, deep learning has become a major component of artificial intelligence, leading to a series of breakthroughs across a wide variety of domains. The workhorse of deep learning is the optimization of loss functions by stochastic gradient descent (SGD). Traditionally in deep learning, neural networks are differentiable mathematical functions, and the loss gradients required for SGD are computed with the backpropagation algorithm. However, the computer architectures on which these neural networks are implemented and trained suffer from speed and energy inefficiency issues, due to the separation of memory and processing in these architectures. To solve these problems, the field of neuromorphic computing aims at implementing neural networks on hardware architectures that merge memory and processing, just like brains do. In this thesis, we argue that building large, fast and efficient neural networks on neuromorphic architectures also requires rethinking the algorithms to implement and train them. We present an alternative mathematical framework, also compatible with SGD, which offers the possibility to design neural networks in substrates that directly exploit the laws of physics. Our framework applies to a very broad class of models, namely those whose state or dynamics are described by variational equations. This includes physical systems whose equilibrium state minimizes an energy function, and physical systems whose trajectory minimizes an action functional (principle of least action). We present a simple procedure to compute the loss gradients in such systems, called equilibrium propagation (EqProp), which requires solely locally available information for each trainable parameter. Since many models in physics and engineering can be described by variational principles, our framework has the potential to be applied to a broad variety of physical systems, whose applications extend to various fields of engineering, beyond neuromorphic computing.
|
37 |
Towards meaningful and data-efficient learning : exploring GAN losses, improving few-shot benchmarks, and multimodal video captioningHuang, Gabriel 09 1900 (has links)
Ces dernières années, le domaine de l’apprentissage profond a connu des progrès énormes dans des applications allant de la génération d’images, détection d’objets, modélisation du langage à la réponse aux questions visuelles. Les approches classiques telles que l’apprentissage supervisé nécessitent de grandes quantités de données étiquetées et spécifiques à la tâches. Cependant, celles-ci sont parfois coûteuses, peu pratiques, ou trop longues à collecter. La modélisation efficace en données, qui comprend des techniques comme l’apprentissage few-shot (à partir de peu d’exemples) et l’apprentissage self-supervised (auto-supervisé), tentent de remédier au manque de données spécifiques à la tâche en exploitant de grandes quantités de données plus “générales”. Les progrès de l’apprentissage profond, et en particulier de l’apprentissage few-shot, s’appuient sur les benchmarks (suites d’évaluation), les métriques d’évaluation et les jeux de données, car ceux-ci sont utilisés pour tester et départager différentes méthodes sur des tâches précises, et identifier l’état de l’art. Cependant, du fait qu’il s’agit de versions idéalisées de la tâche à résoudre, les benchmarks sont rarement équivalents à la tâche originelle, et peuvent avoir plusieurs limitations qui entravent leur rôle de sélection des directions de recherche les plus prometteuses. De plus, la définition de métriques d’évaluation pertinentes peut être difficile, en particulier dans le cas de sorties structurées et en haute dimension, telles que des images, de l’audio, de la parole ou encore du texte. Cette thèse discute des limites et des perspectives des benchmarks existants, des fonctions de coût (training losses) et des métriques d’évaluation (evaluation metrics), en mettant l’accent sur la modélisation générative - les Réseaux Antagonistes Génératifs (GANs) en particulier - et la modélisation efficace des données, qui comprend l’apprentissage few-shot et self-supervised. La première contribution est une discussion de la tâche de modélisation générative, suivie d’une exploration des propriétés théoriques et empiriques des fonctions de coût des GANs. La deuxième contribution est une discussion sur la limitation des few-shot classification benchmarks, certains ne nécessitant pas de généralisation à de nouvelles sémantiques de classe pour être résolus, et la proposition d’une méthode de base pour les résoudre sans étiquettes en phase de testing. La troisième contribution est une revue sur les méthodes few-shot et self-supervised de détection d’objets , qui souligne les limites et directions de recherche prometteuses. Enfin, la quatrième contribution est une méthode efficace en données pour la description de vidéo qui exploite des jeux de données texte et vidéo non supervisés. / In recent years, the field of deep learning has seen tremendous progress for applications ranging from image generation, object detection, language modeling, to visual question answering. Classic approaches such as supervised learning require large amounts of task-specific and labeled data, which may be too expensive, time-consuming, or impractical to collect. Data-efficient methods, such as few-shot and self-supervised learning, attempt to deal with the limited availability of task-specific data by leveraging large amounts of general data. Progress in deep learning, and in particular, few-shot learning, is largely driven by the relevant benchmarks, evaluation metrics, and datasets. They are used to test and compare different methods on a given task, and determine the state-of-the-art. However, due to being idealized versions of the task to solve, benchmarks are rarely equivalent to the original task, and can have several limitations which hinder their role of identifying the most promising research directions. Moreover, defining meaningful evaluation metrics can be challenging, especially in the case of high-dimensional and structured outputs, such as images, audio, speech, or text. This thesis discusses the limitations and perspectives of existing benchmarks, training losses, and evaluation metrics, with a focus on generative modeling—Generative Adversarial Networks (GANs) in particular—and data-efficient modeling, which includes few-shot and self-supervised learning. The first contribution is a discussion of the generative modeling task, followed by an exploration of theoretical and empirical properties of the GAN loss. The second contribution is a discussion of a limitation of few-shot classification benchmarks, which is that they may not require class semantic generalization to be solved, and the proposal of a baseline method for solving them without test-time labels. The third contribution is a survey of few-shot and self-supervised object detection, which points out the limitations and promising future research for the field. Finally, the fourth contribution is a data-efficient method for video captioning, which leverages unsupervised text and video datasets, and explores several multimodal pretraining strategies.
|
Page generated in 0.0631 seconds