• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 5
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation et optimisation distribuée dans les réseaux asynchrones / Distributed estimation and optimization in asynchronous networks

Iutzeler, Franck 06 December 2013 (has links)
Cette thèse s’intéresse au problème d’estimation et d’optimisation distribuée dans les réseaux asynchrones, c’est à dire en n’utilisant que des communication locales et asynchrones. A partir de multiples applications allant de l’apprentissage automatique aux réseaux de capteurs sans-fils, nous concevons et analysons théoriquement de nouveaux algorithmes résolvant trois problèmes de nature très différentes : la propagation de la plus grande des valeurs initiales, l’estimation de leur moyenne et enfin l’optimisation distribuée. / This thesis addresses the distributed estimation and optimization of a global value of interest over a network using only local and asynchronous (sometimes wireless) communications. Motivated by many different applications ranging from cloud computing to wireless sensor networks via machine learning, we design new algorithms and theoretically study three problems of very different nature : the propagation of the maximal initial value, the estimation of their average and finally distributed optimization.
2

Estimation de modèles de mélange probabilistes: une proposition pour un fonctionnement réparti et décentralise

Nikseresht, Afshin 22 October 2008 (has links) (PDF)
Cette th`ese traite de l'estimation statistique distribu ́e, avec la motivation de, et l'application `a l'indexation multim ́edia par le contenu. Les algorithmes et les donn ́ees de divers contributeurs coop ́ereront vers un apprentissage statistique collectif. La contribution est un arrangement pour estimer une densit ́e de probabilit ́e multivariable, dans le cas ou` cette densit ́e prend la forme d'un mod`ele de m ́elange gaussien. Dans ce cadre, l'agr ́egation des mod`eles probabilistes de m ́elanges gaussiens de la mˆeme classe, mais estim ́es `a plusieurs nœuds sur diff ́erents ensembles de donn ́ees, est une n ́ecessit ́e typique `a laquelle nous nous int ́eressons dans cette th`ese. Les approches propo- s ́ees pour la fusion de m ́elanges gaussiens exigent uniquement le calcul mod ́er ́e `a chaque nœud et peu de donn ́ees de transit entre les nœuds. Ces deux propri ́et ́es sont obtenues en agr ́egeant des mod`eles via leurs (peu) param`etres plutˆot que par les donn ́ees multim ́edia. Dans la premi`ere approche, en supposant que les m ́elanges sont estim ́es ind ́ependamment, nous propageons leurs param`etres de fa ̧con d ́ecentralis ́ee (gossip), dans un r ́eseau, et agr ́egeons les mod`eles `a partir des nœuds reli ́es entre eux, pour am ́eliorer l'estimation. Les mod`eles de m ́elange sont en fait concat ́en ́es puis r ́eduits `a un nombre appropri ́e de composants gaussiens. Une modification de la divergence de Kullback conduit `a un processus it ́eratif pour estimer ce mod`ele agr ́eg ́e. Afin d'ap- porter une am ́elioration, l'agr ́egation est r ́ealis ́ee par la mod ́elisation bay ́esienne du probl`eme de groupement de composant de mod`ele de m ́elange gaussien et est r ́esolue en utilisant la m ́ethode variationnelle, appliqu ́ee au niveau de composant. Cela permet de d ́eterminer, par un processus simple, peu couˆteux et pr ́ecis, les attributions des composants qui devraient ˆetre agr ́eg ́es et le nombre de composants dans le m ́elange apr`es l'agr ́egation. Comme seulement les param`etres du mod`ele sont ́echang ́es sur le r ́eseau, le calcul et la charge du r ́eseau restent tr`es mod ́er ́es.
3

Estimation et Optimisation Distribuée pour les Réseaux Asynchrones

Iutzeler, Franck 06 December 2013 (has links) (PDF)
Cette thèse s'intéresse au problème d'estimation et d'optimisation distribuée dans les réseaux asynchrones, c'est à dire en n'utilisant que des communications locales et asynchrones. A partir de multiples applications allant de l'apprentissage automatique aux réseaux de capteurs sans-fils, nous concevons et analysons théoriquement de nouveaux algorithmes résolvant trois problèmes de nature très différentes : la propagation de la plus grande des valeurs initiales, l'estimation de leur moyenne et enfin l'optimisation distribuée.
4

Collecte et estimation robustes d’information dans un réseau de capteurs sans fils / Distributed Information Gathering and Estimation in Wireless Sensor Networks

Li, Wenjie 15 November 2016 (has links)
Les réseaux de capteurs sans fils (RCSFs) suscitent un intérêt croissant depuis une vingtaine d'années. La première partie de cette thèse est consacré à l'étude de l'efficacité de compression de données corrélées provenant d'un RCSF et acheminées vers un point de collecte à l'aide du codage réseau linéaire aléatoire. Les conditions nécessaires et suffisantes sont obtenues pour récupérer parfaitement les données que les capteurs mesurent. Puis on considère les nœuds dans un RCSF collaborant afin d'exécuter une tâche donnée (acquisition, détection...), pour laquelle chaque nœud a potentiellement un niveau d'expertise différent. La seconde partie de cette thèse est dédiée à la conception et à l'analyse d'algorithmes d'auto-évaluation distribués (AED), qui permettent à chaque nœud d'auto-évaluer son niveau d’expert. Trois types de problèmes sont considérés: i) la détection distribuée des nœuds défaillants (DDD), qui permet d'identifier les nœuds équipés de capteurs défectueux dans un RCSF; ii) la DDD dans un réseau tolérant aux déconnections (RTD) dont la topologie est dynamique et le degré de connectivité très faible; iii) la AED avec interactions pair à pair. Les résultats théoriques sont utiles pour configurer les paramètres des algorithmes. / Wireless sensor networks (WSNs) have attracted much interests in the last decade. The first part of this thesis considers sparse random linear network coding is for data gathering and compression in WSNs. An information-theoretic approach is applied to demonstrate the necessary and sufficient conditions to realize the asymptotically perfect reconstruction under MAP estimation. The second part of the thesis concerns the distributed self-rating (DSR) problem, for WSNs with nodes that have different ability of performing some task (sensing, detection...). The main assumption is that each node does not know and needs to estimate its ability. Depending on the number of ability levels and the communication conditions, three sub-problems have been addressed: i) distributed faulty node detection (DFD) to identify the nodes equipped with defective sensors in dense WSNs; ii) DFD in delay tolerant networks (DTNs) with sparse and intermittent connectivity; iii) DSR using pairwise comparison. Distributed algorithms have been proposed and analyzed. Theoretical results assess the effectiveness of the proposed solution and give guidelines in the design of the algorithm.
5

Estimation distribuée adaptative sur les réseaux multitâches / Distributed adaptive estimation over multitask networks

Nassif, Roula 30 November 2016 (has links)
L’apprentissage adaptatif distribué sur les réseaux permet à un ensemble d’agents de résoudre des problèmes d’estimation de paramètres en ligne en se basant sur des calculs locaux et sur des échanges locaux avec les voisins immédiats. La littérature sur l’estimation distribuée considère essentiellement les problèmes à simple tâche, où les agents disposant de fonctions objectives séparables doivent converger vers un vecteur de paramètres commun. Cependant, dans de nombreuses applications nécessitant des modèles plus complexes et des algorithmes plus flexibles, les agents ont besoin d’estimer et de suivre plusieurs vecteurs de paramètres simultanément. Nous appelons ce type de réseau, où les agents doivent estimer plusieurs vecteurs de paramètres, réseau multitâche. Bien que les agents puissent avoir différentes tâches à résoudre, ils peuvent capitaliser sur le transfert inductif entre eux afin d’améliorer les performances de leurs estimés. Le but de cette thèse est de proposer et d’étudier de nouveaux algorithmes d’estimation distribuée sur les réseaux multitâches. Dans un premier temps, nous présentons l’algorithme diffusion LMS qui est une stratégie efficace pour résoudre les problèmes d’estimation à simple-tâche et nous étudions théoriquement ses performances lorsqu’il est mis en oeuvre dans un environnement multitâche et que les communications entre les noeuds sont bruitées. Ensuite, nous présentons une stratégie de clustering non-supervisé permettant de regrouper les noeuds réalisant une même tâche en clusters, et de restreindre les échanges d’information aux seuls noeuds d’un même cluster / Distributed adaptive learning allows a collection of interconnected agents to perform parameterestimation tasks from streaming data by relying solely on local computations and interactions with immediate neighbors. Most prior literature on distributed inference is concerned with single-task problems, where agents with separable objective functions need to agree on a common parameter vector. However, many network applications require more complex models and flexible algorithms than single-task implementations since their agents involve the need to estimate and track multiple objectives simultaneously. Networks of this kind, where agents need to infer multiple parameter vectors, are referred to as multitask networks. Although agents may generally have distinct though related tasks to perform, they may still be able to capitalize on inductive transfer between them to improve their estimation accuracy. This thesis is intended to bring forth advances on distributed inference over multitask networks. First, we present the well-known diffusion LMS strategies to solve single-task estimation problems and we assess their performance when they are run in multitask environments in the presence of noisy communication links. An improved strategy allowing the agents to adapt their cooperation to neighbors sharing the same objective is presented in order to attain improved learningand estimation over networks. Next, we consider the multitask diffusion LMS strategy which has been proposed to solve multitask estimation problems where the network is decomposed into clusters of agents seeking different

Page generated in 0.0899 seconds