• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 3
  • 2
  • Tagged with
  • 44
  • 13
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Déploiement optimal d’un réseau de capteurs sous des contraintes de couverture et de connectivité / Optimal deployment in wireless sensor networks under cover and connectivity constraints

Marie, Sylvain 18 October 2019 (has links)
L'objet de cette thèse sur les réseaux de capteurs est l'étude du déploiement minimal de capteurs lorsque ceux-ci doivent couvrir un ensemble discret de cibles plutôt que des superficies. Après la présentation des caractéristiques d'un réseau de capteurs, et l'intérêt d'un déploiement minimal, nous en proposons une modélisation en théorie des graphes. Nous présentons ensuite un état de l'art décrivant certaines techniques de résolution par la programmation mathématique de diverses problématiques dans ce type de réseau. Nous utilisons plusieurs programmes linéaires en variables mixtes afin de résoudre le problème du déploiement minimal des capteurs sous des contraintes de couverture de toutes les cibles et de connectivité des capteurs entre eux. Finalement, nous concevons une nouvelle heuristique de calcul de placement de capteurs lorsque les cibles sont placées sur une grille à motif carré et nous conjecturons que cette heuristique retourne une solution optimale dans tous les cas. / The objectif of this thesis on wireless sensor networks is to study the deployment of a minimal number of sensors to cover specific targets instead of continuous areas. After a presentation of the characteristics of wireless sensor networks, and after justifying the interest of an optimal sensor deployment, we propose a graph-theory based model for wireless sensor networks. We then present a state of the art describing various mathematical programming models and resolution techniques regarding a number of optimization problems in such networks. We formulate several Mixed Integer Linear programs to solve the optimal sensor deployment problem under contraints related to the coverage of all targets and connectivity between sensors. Finally, we conceive a new heuristic for sensor placement when targets are placed in a square grid graph, and we conjecture that this heuristic returns an optimal solution in all cases.
42

Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension / DCA based algorithms for learning with sparsity in high dimensional setting and stochastical learning

Phan, Duy Nhat 15 December 2016 (has links)
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes / These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
43

Problèmes de transport partiel optimal et d'appariement avec contrainte / Optimal partial transport and constrained matching problems

Nguyen, Van thanh 03 October 2017 (has links)
Cette thèse est consacrée à l'analyse mathématique et numérique pour les problèmes de transport partiel optimal et d'appariement avec contrainte (constrained matching problem). Ces deux problèmes présentent de nouvelles quantités inconnues, appelées parties actives. Pour le transport partiel optimal avec des coûts qui sont donnés par la distance finslerienne, nous présentons des formulations équivalentes caractérisant les parties actives, le potentiel de Kantorovich et le flot optimal. En particulier, l'EDP de condition d'optimalité permet de montrer l'unicité des parties actives. Ensuite, nous étudions en détail des approximations numériques pour lesquelles la convergence de la discrétisation et des simulations numériques sont fournies. Pour les coûts lagrangiens, nous justifions rigoureusement des caractérisations de solution ainsi que des formulations équivalentes. Des exemples numériques sont également donnés. Le reste de la thèse est consacré à l'étude du problème d'appariement optimal avec des contraintes pour le coût de la distance euclidienne. Ce problème a un comportement différent du transport partiel optimal. L'unicité de solution et des formulations équivalentes sont étudiées sous une condition géométrique. La convergence de la discrétisation et des exemples numériques sont aussi établis. Les principaux outils que nous utilisons dans la thèse sont des combinaisons des techniques d'EDP, de la théorie du transport optimal et de la théorie de dualité de Fenchel--Rockafellar. Pour le calcul numérique, nous utilisons des méthodes du lagrangien augmenté. / The manuscript deals with the mathematical and numerical analysis of the optimal partial transport and optimal constrained matching problems. These two problems bring out new unknown quantities, called active submeasures. For the optimal partial transport with Finsler distance costs, we introduce equivalent formulations characterizing active submeasures, Kantorovich potential and optimal flow. In particular, the PDE of optimality condition allows to show the uniqueness of active submeasures. We then study in detail numerical approximations for which the convergence of discretization and numerical simulations are provided. For Lagrangian costs, we derive and justify rigorously characterizations of solution as well as equivalent formulations. Numerical examples are also given. The rest of the thesis presents the study of the optimal constrained matching with the Euclidean distance cost. This problem has a different behaviour compared to the partial transport. The uniqueness of solution and equivalent formulations are studied under geometric condition. The convergence of discretization and numerical examples are also indicated. The main tools which we use in the thesis are some combinations of PDE techniques, optimal transport theory and Fenchel--Rockafellar dual theory. For numerical computation, we make use of augmented Lagrangian methods.
44

Régularisations de faible complexité pour les problèmes inverses / Low Complexity Regularization of Inverse Problems

Vaiter, Samuel 10 July 2014 (has links)
Cette thèse se consacre aux garanties de reconstruction et de l’analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s’agit d’un problème d’optimisation convexe combinant un terme d’attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l’étude d’une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l’anti-Parcimonie et la structure de faible rang. Nous analysons tout d’abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l’objet original, ainsi que la stabilité de l’espace modèle promu.Ensuite, nous étudions la stabilité de ces problèmes d’optimisation à des perturbations des observations. A partir d’observations aléatoires, nous construisons un estimateur non biaisé du risque afin d’obtenir un schéma de sélection de paramètre. / This thesis is concerned with recovery guarantees and sensitivity analysis of variational regularization for noisy linear inverse problems. This is cast as aconvex optimization problem by combining a data fidelity and a regularizing functional promoting solutions conforming to some notion of low complexity related to their non-Smoothness points. Our approach, based on partial smoothness, handles a variety of regularizers including analysis/structured sparsity, antisparsity and low-Rank structure. We first give an analysis of thenoise robustness guarantees, both in terms of the distance of the recovered solutions to the original object, as well as the stability of the promoted modelspace. We then turn to sensivity analysis of these optimization problems to observation perturbations. With random observations, we build un biased estimator of the risk which provides a parameter selection scheme.

Page generated in 0.0319 seconds