Spelling suggestions: "subject:"forward backward splitting"" "subject:"dorward backward splitting""
1 |
Convergence de Fisher et H-différentiabilité des applications multivoques / Fisher convergence and H-differentiability of set*valued mappingsPascaline, Géraldine 08 December 2011 (has links)
Dans cette thèse nous présentons dans un premier temps une nouvelle notion de différentiabilité généralisée pour les applications multivoques, faisant intervenir des applications positivement homogènes: la H-différentiabilité. Nous étudions la stabilité de cette notion en utilisant la convergence de Fischer, d'abord dédiée aux ensembles mais que nous avons adaptée aux applications multivoques. Nous nous intéressons ensuite à l'étude de la dépendance continue des ensembles de points fixes d'une application multivoque contractante par rapport aux données. Finalement nous analysons la convergence d'une méthode d'approximations successives de type forward-backward splitting, des zéros de la somme de deux opérateurs multivoques non monotones, jouissants notamment de propriétés de pseudo H-différentiabilité / In this thesis we present at first a new concept of generalized differentiation for setvalued mappings, involving positively homogeneous applications: the H-differentiability. We study the stability of this notion by using Fischer convergence,firstly dedicated to sets but which we have adapted to set-valued mappings. We establish the continuous dependence of fixed points sets of set-valued contraction and finally we study the convergence of a forward-backward splitting method for approximating the zeros of the sum of two non-monotone set-valued mappings, notably using properties of pseudo H-differentiability.
|
2 |
Estimation distribuée adaptative sur les réseaux multitâches / Distributed adaptive estimation over multitask networksNassif, Roula 30 November 2016 (has links)
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster / Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different
|
Page generated in 0.0948 seconds