• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 51
  • 37
  • 5
  • 2
  • Tagged with
  • 96
  • 46
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Non-Convex Optimization for Latent Data Models : Algorithms, Analysis and Applications / Optimisation Non Convexe pour Modèles à Données Latentes : Algorithmes, Analyse et Applications

Karimi, Belhal 19 September 2019 (has links)
De nombreux problèmes en Apprentissage Statistique consistent à minimiser une fonction non convexe et non lisse définie sur un espace euclidien. Par exemple, les problèmes de maximisation de la vraisemblance et la minimisation du risque empirique en font partie.Les algorithmes d'optimisation utilisés pour résoudre ce genre de problèmes ont été largement étudié pour des fonctions convexes et grandement utilisés en pratique.Cependant, l'accrudescence du nombre d'observation dans l'évaluation de ce risque empirique ajoutée à l'utilisation de fonctions de perte de plus en plus sophistiquées représentent des obstacles.Ces obstacles requièrent d'améliorer les algorithmes existants avec des mis à jour moins coûteuses, idéalement indépendantes du nombre d'observations, et d'en garantir le comportement théorique sous des hypothèses moins restrictives, telles que la non convexité de la fonction à optimiser.Dans ce manuscrit de thèse, nous nous intéressons à la minimisation de fonctions objectives pour des modèles à données latentes, ie, lorsque les données sont partiellement observées ce qui inclut le sens conventionnel des données manquantes mais est un terme plus général que cela.Dans une première partie, nous considérons la minimisation d'une fonction (possiblement) non convexe et non lisse en utilisant des mises à jour incrémentales et en ligne. Nous proposons et analysons plusieurs algorithmes à travers quelques applications.Dans une seconde partie, nous nous concentrons sur le problème de maximisation de vraisemblance non convexe en ayant recourt à l'algorithme EM et ses variantes stochastiques. Nous en analysons plusieurs versions rapides et moins coûteuses et nous proposons deux nouveaux algorithmes du type EM dans le but d'accélérer la convergence des paramètres estimés. / Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Many problems in machine learning pertain to tackling the minimization of a possibly non-convex and non-smooth function defined on a Euclidean space.Examples include topic models, neural networks or sparse logistic regression.Optimization methods, used to solve those problems, have been widely studied in the literature for convex objective functions and are extensively used in practice.However, recent breakthroughs in statistical modeling, such as deep learning, coupled with an explosion of data samples, require improvements of non-convex optimization procedure for large datasets.This thesis is an attempt to address those two challenges by developing algorithms with cheaper updates, ideally independent of the number of samples, and improving the theoretical understanding of non-convex optimization that remains rather limited.In this manuscript, we are interested in the minimization of such objective functions for latent data models, ie, when the data is partially observed which includes the conventional sense of missing data but is much broader than that.In the first part, we consider the minimization of a (possibly) non-convex and non-smooth objective function using incremental and online updates.To that end, we propose several algorithms exploiting the latent structure to efficiently optimize the objective and illustrate our findings with numerous applications.In the second part, we focus on the maximization of non-convex likelihood using the EM algorithm and its stochastic variants.We analyze several faster and cheaper algorithms and propose two new variants aiming at speeding the convergence of the estimated parameters.
62

Teaching Sin: Manuals for Penitents and Self-Examination Literature in England, 1150-1400

Murchison, Krista A. January 2016 (has links)
This dissertation offers the first full-length study of medieval England’s literary tradition of manuals for penitents—texts describing the sins, and other essentials of the faith, that address penitents preparing for confession. This tradition includes works that were among the most popular in medieval England. Some of these—including the Parson’s Tale and Ancrene Wisse, which is an important precursor to this body of writing—have been studied in depth, but the tradition in which they participate is still not well understood. This dissertation shows that this tradition emerged in a significant way in the second half of the thirteenth century, although it took root in an existing body of self-examination writing. Insofar as it reflects a new emphasis on reading as a means of interrogating oneself rather than as a means of preparing oneself to interrogate others, the development of these manuals represents a widening range of reading practices and a shift toward private confessional education. The first two chapters describe the characteristics of manuals for penitents, including their material and formal qualities. Among other contributions, the first chapter explores a feature of commentaries on the essentials of the faith that often goes unnoticed: that when they appear in manuals for penitents, they are not, as is often thought, digressive, impersonal, or strictly didactic, but instead encourage and promote self-reflection. The second chapter examines the implied and actual audiences of manuals for penitents. On the basis of this more precise characterization of these manuals, the final three chapters offer insight into three interlinked texts chosen from different stages of the development of these manuals: Ancrene Wisse, the Compileison, and the Parson’s Tale. In addition to shedding light on these three texts, these concluding chapters highlight some of the tensions that emerged surrounding the shift to asynchronous penitential learning that was enabled by these manuals.
63

Differentiable best response shaping

Aghajohari, Milad 07 1900 (has links)
Cette thèse est structurée en quatre sections. La première constitue une introduction au problème de la formation d'agents coopératifs non exploitables dans les jeux à somme non nulle. La deuxième section, soit le premier chapitre, fournit le contexte nécessaire pour discuter de l'étendue et des outils mathématiques requis pour explorer ce problème. La troisième section, correspondant au deuxième chapitre, expose un cadre spécifique, nommé Best Response Shaping, que nous avons élaboré pour relever ce défi. La quatrième section contient les conclusions que nous tirons de ce travail et nous y discutons des travaux futurs potentiels. Le chapitre introductif se divise en quatre sections. Dans la première, nous présentons le cadre d'apprentissage par renforcement (Reinforcement Learning) afin de formaliser le problème d'un agent interagissant avec l'environnement pour maximiser une récompense scalaire. Nous introduisons ensuite les Processus Décisionnels de Markov (Markov Decision Processes) en tant qu'outil mathématique pour formaliser le problème d'apprentissage par renforcement. Nous discutons de deux méthodes générales de solution pour résoudre le problème d'apprentissage par renforcement. Les premières sont des méthodes basées sur la valeur qui estiment la récompense cumulée optimale réalisable pour chaque paire action-état, et la politique serait alors apprise. Les secondes sont des méthodes basées sur les politiques où la politique est optimisée directement sans estimer les valeurs. Dans la deuxième section, nous introduisons le cadre d'apprentissage par renforcement multi-agents (Multi-Agent Reinforcement Learning) pour formaliser le problème de plusieurs agents tentant de maximiser une récompense cumulative scalaire dans un environnement partagé. Nous présentons les Jeux Stochastiques comme une extension théorique du processus de décision de Markov pour permettre la présence de plusieurs agents. Nous discutons des trois types de jeux possibles entre agents en fonction de la structure de leur système de récompense. Nous traitons des défis spécifiques à l'apprentissage par renforcement multi-agents. En particulier, nous examinons le défi de l'apprentissage par renforcement profond multi-agents dans des environnements partiellement compétitifs, où les méthodes traditionnelles peinent à promouvoir une coopération non exploitable. Dans la troisième section, nous introduisons le Dilemme du prisonnier itéré (Iterated Prisoner's Dilemma) comme un jeu matriciel simple utilisé comme exemple de jouet pour étudier les dilemmes sociaux. Dans la quatrième section, nous présentons le Coin Game comme un jeu à haute dimension qui doit être résolu grâce à des politiques paramétrées par des réseaux de neurones. Dans le deuxième chapitre, nous introduisons la méthode Forme de la Meilleure Réponse (Best Response Shaping). Des approches existantes, comme celles des agents LOLA et POLA, apprennent des politiques coopératives non exploitables en se différenciant grâce à des étapes d'optimisation prédictives de leur adversaire. Toutefois, ces techniques présentent une limitation majeure car elles sont susceptibles d'être exploitées par une optimisation supplémentaire. En réponse à cela, nous introduisons une nouvelle approche, Forme de la Meilleure Réponse, qui se différencie par le fait qu'un adversaire approxime la meilleure réponse, que nous appelons le "détective". Pour conditionner le détective sur la politique de l'agent dans les jeux complexes, nous proposons un mécanisme de conditionnement différenciable sensible à l'état, facilité par une méthode de questions-réponses (QA) qui extrait une représentation de l'agent basée sur son comportement dans des états d'environnement spécifiques. Pour valider empiriquement notre méthode, nous mettons en évidence sa performance améliorée face à un adversaire utilisant l'Arbre de Recherche Monte Carlo (Monte Carlo Tree Search), qui sert d'approximation de la meilleure réponse dans le Coin Game. / This thesis is organized in four sections.The first is an introduction to the problem of training non-exploitable cooperative agents in general-sum games. The second section, the first chapter, provides the necessary background for discussing the scope and necessary mathematical tools for exploring this problem. The third section, the second chapter, explains a particular framework, Best Response Shaping, that we developed for tackling this challenge. In the fourth section, is the conclusion that we drive from this work and we discuss the possible future works. The background chapter consists of four section. In the first section, we introduce the \emph{Reinforcement Learning } framework for formalizing the problem of an agent interacting with the environment maximizing a scalar reward. We then introduce \emph{Markov Decision Processes} as a mathematical tool to formalize the Reinforcement Learning problem. We discuss two general solution methods for solving the Reinforcement Learning problem. The first are Value-based methods that estimate the optimal achievable accumulative reward in each action-state pair and the policy would be learned. The second are Policy-based methods where the policy is optimized directly without estimating the values. In the second section, we introduce \emph{Multi-Agent Reinforcement Learning} framework for formalizing multiple agents trying to maximize a scalar accumulative reward in a shared environment. We introduce \emph{Stochastic Games} as a theoretical extension of the Markov Decision Process to allow multiple agents. We discuss the three types of possible games between agents based on the setup of their reward structure. We discuss the challenges that are specific to Multi-Agent Reinforcement Learning. In particular, we investigate the challenge of multi-agent deep reinforcement learning in partially competitive environments, where traditional methods struggle to foster non-exploitable cooperation. In the third section, we introduce the \emph{Iterated Prisoner's Dilemma} game as a simple matrix game used as a toy-example for studying social dilemmas. In the Fourth section, we introduce the \emph{Coin Game} as a high-dimensional game that should be solved via policies parameterized by neural networks. In the second chapter, we introduce the Best Response Shaping (BRS) method. The existing approaches like LOLA and POLA agents learn non-exploitable cooperative policies by differentiation through look-ahead optimization steps of their opponent. However, there is a key limitation in these techniques as they are susceptible to exploitation by further optimization. In response, we introduce a novel approach, Best Response Shaping (BRS), which differentiates through an opponent approximating the best response, termed the "detective." To condition the detective on the agent's policy for complex games we propose a state-aware differentiable conditioning mechanism, facilitated by a question answering (QA) method that extracts a representation of the agent based on its behaviour on specific environment states. To empirically validate our method, we showcase its enhanced performance against a Monte Carlo Tree Search (MCTS) opponent, which serves as an approximation to the best response in the Coin Game. This work expands the applicability of multi-agent RL in partially competitive environments and provides a new pathway towards achieving improved social welfare in general sum games.
64

Structures linéaires dans les ensembles à faible densité

Henriot, Kevin 07 1900 (has links)
Réalisé en cotutelle avec l'Université Paris-Diderot. / Nous présentons trois résultats en combinatoire additive, un domaine récent à la croisée de la combinatoire, l'analyse harmonique et la théorie analytique des nombres. Le thème unificateur de notre thèse est la détection de structures additives dans les ensembles arithmétiques à faible densité, avec un intérêt particulier pour les aspects quantitatifs. Notre première contribution est une estimation de densité améliorée pour le problème, initié entre autres par Bourgain, de trouver une longue progression arithmétique dans un ensemble somme triple. Notre deuxième résultat consiste en une généralisation des bornes de Sanders pour le théorème de Roth, du cas d'un ensemble dense dans les entiers à celui d'un ensemble à faible croissance additive dans un groupe abélien arbitraire. Finalement, nous étendons les meilleures bornes quantitatives connues pour le théorème de Roth dans les premiers, à tous les systèmes d'équations linéaires invariants par translation et de complexité un. / We present three results in additive combinatorics, a recent field at the interface of combinatorics, harmonic analysis and analytic number theory. The unifying theme in our thesis is the detection of additive structure in arithmetic sets of low density, with an emphasis on quantitative aspects. Our first contribution is an improved density estimate for the problem, initiated by Bourgain and others, of finding a long arithmetic progression in a triple sumset. Our second result is a generalization of Sanders' bounds for Roth's theorem from the dense setting, to the setting of small doubling in an arbitrary abelian group. Finally, we extend the best known quantitative results for Roth's theorem in the primes, to all translation-invariant systems of equations of complexity one.
65

Réponse linéaire dynamique et auto-cohérente des atomes dans les plasmas quantiques : photo-absorption et effets collectifs dans les plasmas denses / Self-consistent dynamical linear response of atoms in quantum plasmas : photo-absorption and collective effects in dense plasmas

Caizergues, Clément 24 April 2015 (has links)
Dans la modélisation de la matière dense, et partiellement ionisée, une question importante concerne le traitement des électrons libres. Vis-à-vis des électrons liés, la nature délocalisée et non discrète de ces électrons est responsable d’une différence de traitement, qui est souvent effectuée dans les modélisations des propriétés radiatives des plasmas. Cependant, afin d’éviter les incohérences dans le calcul des spectres d’absorption, tous les électrons devraient, en principe, être décrits dans un même formalisme.Nous utilisons deux modèles variationnels d’atome-moyen : un modèle semi-classique, et un modèle quantique, qui permettent cette égalité de traitement pour tous les électrons. Nous calculons la section-efficace de photo-extinction, en appliquant le cadre de la théorie de la réponse linéaire dynamique à chacun de ces modèles d’atome dans un plasma. Pour cette étude, nous développons et utilisons une approche auto-cohérente, de type random-phase-approximation (RPA), qui, en allant au-delà de la réponse des électrons indépendants, permet d’évaluer les effets collectifs, par l’introduction de la polarisation dynamique. Cette approche s’inscrit dans le formalisme de la théorie de la fonctionnelle de la densité dépendant du temps (TDDFT), appliquée au cas d’un système atomique immergé dans un plasma.Pour les deux modèles, semi-classique et quantique, nous dérivons, et vérifions dans nos calculs, une nouvelle règle de somme, qui permet d’évaluer le dipôle atomique à partir d’un volume fini dans le plasma. Cette règle de somme s’avère être un outil de premier ordre pour le calcul des propriétés radiatives des atomes dans les plasmas denses. / In modeling dense and partially ionized matter, the treatment of the free electrons remains an important issue. Compared to bound electrons, the delocalized and non-discrete nature of these electrons is responsible to treat them differently, which is usually adopted in the modelings of radiative properties of plasmas. However, in order to avoid inconsistencies in the calculation of absorption spectra, all the electrons should be described in the same formalism.We use two variational average-atom models: a semi-classical and a quantum model, which allow this common treatment for all the electrons. We calculate the photo-extinction cross-section, by applying the framework of the linear dynamical response theory to each of these models of an atom in a plasma. For this study, we develop and use a self-consistent approach, of random-phase-approximation (RPA) type, which, while going beyond the independent electron response, permits to evaluate the collective effects by the introduction of the dynamical polarization. This approach uses the formalism of the time dependent density functional theory (TDDFT), applied in the case of an atomic system immersed in a plasma.For both models, semi-classical and quantum, we derive and verify in our calculations, a new sum rule, which allows the evaluation of the atomic dipole from a finite volume in the plasma. This sum rule turns out to be a crucial device in the calculation of radiative properties of atoms in dense plasmas.
66

Différents aspects de la physique nucléaire depuis les basses énergies jusqu'aux énergies intermédiaires

Lallouet, Yoann 19 December 2011 (has links) (PDF)
Cette thèse porte sur l'étude de différents aspects de la physique nucléaire depuis les basses énergies jusqu'aux énergies intermédiaires. Pour les basses énergies, où la matière nucléaire est essentiellement constituée de nucléons en interaction, la partie I traite de la fusion-fission des noyaux super-lourds, et la partie II des règles de somme associées aux interactions de type Skyrme. Pour les énergies intermédiaires, la matière nucléaire étant alors considérée comme une phase hadronique principalement constituée de pions, la partie III se focalise sur l'hydrodynamique relativiste de la matière nucléaire avec brisure spontanée de symétrie chirale. Dans la partie I, on s'intéresse à la formation puis à la désexcitation des noyaux super-lourds. On étudie donc la formation du noyau composé avec effets de mémoire. Pour la désexcitation d'un noyau super-lourd, l'existence d'un puits isomérique dans la barrière de potentiel change la dynamique de désexcitation et augmente les temps de fission. Cette dernière étude pourrait être utile à l'étude de la dynamique de la fission des actinides. Dans la partie II, les règles de somme M1 et M3 associées aux potentiels phénoménologiques de type Skyrme sont calculées à partir de leurs définitions intrinsèques. On détermine alors M1 jusqu'au niveau tensoriel et M3 avec potentiel central. Dans la partie III, pour le traitement hydrodynamique de la matière hadronique appliqué aux collisions d'ions lourds on peut, en première approximation, écarter les modifications induites par la brisure spontanée de symétrie chirale mais pas celles dues à l'aspect dissipatif.
67

Modélisation de l'érosion fluviatile long-terme : application au Bassin parisien (faibles érosions) et au Rhône messinien (fortes érosions)

Gargani, Julien 26 May 2004 (has links) (PDF)
Comment extraire de l'information et prévoir le comportement d'un système dont on ne connaît qu'un nombre limité d'informations ? <br />Nous avons simulé l'érosion fluviatile long-terme et ses conséquences sur la base d'un modèle prenant en compte les processus physiques. Nous avons complété le modèle mécanique par l'intégration de considérations sur l'évolution dans le temps des grandeurs caractéristiques du système en les simulant par l'intermédiaire du signal d'insolation (influence des paramètres astronomiques sur les changements climatiques).<br /><br />Dans le cas du bassin parisien, les simulations ont mis en évidence l'existence d'un soulèvement tectonique régulier de 0.06 à 0.09 mm/an lors des derniers cycles climatiques (plusieurs dizaines de milliers d'années). L'équilibre dynamique du système fluctue en fonction des variations climatiques : le dernier maximum d'incision, estimé par l'intermédiaire de la simulation, a eu lieu il y a 40 à 60 ka.<br />Dans le cas des fortes incisions, le paléo-profil des fleuves enregistre les propriétés mécaniques de la lithosphère. On obtient ainsi une méthode alternative et élégante pour déterminer celles-ci. <br /><br />Suivant l'échelle de temps et d'espace étudiée, le profil longitudinal des fleuves peut révéler soit les mouvements tectoniques, soit les changements de climat, soit enfin les propriétés mécaniques de la lithosphère. La modélisation permet de combler certaines lacunes sur les évènements passés et constitue un outil de prédiction long-terme.
68

Localisation et décroissance des champs de la mécanique des fluides et des plasmas. Espaces fonctionnels associés à une famille de champs de vecteurs.

Vigneron, Francois 22 November 2006 (has links) (PDF)
La première partie est consacrée à l'étude du comportement asymptotique des solutions de Navier-Stokes incompressible à l'infini de la variable d'espace. On obtient des résultats optimaux de propagation de la décroissance en terme d'espaces à poids, ainsi qu'un developpement asymptotique de la vitesse et de la pression analogue à la loi de Bernoulli. La théorie s'étend à un modèle de la MHD.<br />La seconde partie est consacrée à l'étude des espaces de Sobolev associés à une famille de champs de vecteurs, de type sous-elliptique. Les principaux résultats sont la description des régularités fractionnaires avec la distance de Carnot, la démonstration d'inégalités de Hardy et, dans le cas du groupe de Heisenberg, la théorie des traces sur une hypersurface caractéristique générique.
69

Etudes expérimentales et simulations Monte Carlo en spectrométrie γ : correction des effets de cascade et de matrice pour des mesures environnementales

Dziri, Samir 29 May 2013 (has links) (PDF)
Les mesures fines des faibles radioactivités par la spectrométrie gamma nécessitent l'optimisation de la géométrie de détection et la connaissance du schéma de niveaux des raies gamma. Ainsi, on peut augmenter le taux de comptage et par conséquent, réduire l'incertitude statistique des pics spectraux exploités pour le calcul de l'activité des radio-isotopes en rapprochant le plus possible l'échantillon du détecteur. Cependant, l'augmentation du volume de l'échantillon demande une correction de l'auto-absorption des émissions par l'échantillon même, et le rapprochement du détecteur est à l'origine du phénomène de pic-somme. L'utilisation de MCNPX a permis de mettre en évidence les effets séparés de la densité de l'échantillon et le nombre atomique effectif dans l'atténuation des photons d'énergie inférieure à 100 keV. Les facteurs de correction du pic-somme sont obtenus par MCNPX, GESPCOR et ETNA. Ainsi, une base des données pour 244 radionucléides a été établie pour des géométries SG50 et SG500 au contact d'un détecteur. Dans une application à la radioprotection, des échantillons de matériaux de construction ont été analysés par la spectrométrie gamma. L'Uranium-238, le Thorium-232 et le Potassium-40 ont été identifiés et corrigés des effets sus-cités. La dosimétrie de leurs rayonnements gamma a permis d'évaluer les indices de risque, la dose absorbée et la dose efficace annuelle reçues provenant de ces matériaux. Les simulations par MCNPX corroborent le modèle de calcul de la dose absorbée. Il a permis aussi d'étudier la distribution de la dose dans les habitations de différentes dimensions. Les résultats obtenus sont en accord avec les limites règlementaires.
70

Nouveaux concepts pour des sources laser bleues à base de cristaux dopés Néodyme

Hérault, Emilie 12 February 2007 (has links) (PDF)
Les sources laser bleues possèdent des applications nombreuses et varies (shows laser, affichage, médecine, spectroscopie, communications sous-marines, stockage de données). Lors de cette thèse, nous avons démontré qu'avec de nouveaux concepts, il est possible de réaliser des sources bleues originales à base de cristaux dopés néodyme. Nous avons dans un premier temps proposé une alternative au laser à Argon en concevant une source basée sur la somme de fréquence de deux raies du néodyme émettant autour de 1060 nm et 910 nm. Afin de choisir le cristal optimal, nous avons mené une étude comparative sur certaines caractéristiques physiques et les performances laser sur la transition 4F3/2-4I9/2 des cristaux de Nd:GdVO4 et Nd:YVO4. Nous avons ensuite conçu et réalisé quatre architectures laser émettant en continu à 491 nm, toutes à base de somme de fréquence intracavité. Les deux premières étaient basées sur des laser bi-longueur d'onde à un seul ou deux cristaux laser. La troisième était composée de deux lasers dont les cavités étaient imbriquées, le cristal non linéaire étant inséré dans la partie commune. Finalement, nous avons réalisé un laser émettant à 1064 nm pompé intracavité à 912 nm. Sur le même principe, nous avons conçu une source en régime déclenché à 491 nm grâce à un nouveau concept d'extraction de puissance par interaction non linéaire. La somme de fréquence a alors lieu intracavité à 912 nm mais extracavité à 1063 nm. Finalement, nous avons étudié et réalisé un laser fonctionnant sur la transition à trois niveaux de l'ion néodyme. Par génération de second harmonique, nous avons ainsi réalisé des sources bleues de longueur d'onde inférieure à 450 nm.

Page generated in 0.0607 seconds