• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 30
  • 2
  • Tagged with
  • 70
  • 70
  • 42
  • 39
  • 16
  • 16
  • 15
  • 14
  • 13
  • 13
  • 12
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Algorithmes rapides d'optimisation convexe. Applications à la reconstruction d'images et à la détection de changements.

Weiss, Pierre 21 November 2008 (has links) (PDF)
Cette thèse contient des contributions en analyse numérique et en vision par ordinateur. Dans une première partie, nous nous intéressons à la résolution rapide, par des méthodes de premier ordre, de problèmes d'optimisation convexe. Ces problèmes apparaissent naturellement dans de nombreuses tâches telles que la reconstruction d'images, l'échantillonnage compressif ou la décomposition d'images en texture et en géométrie. Ils ont la particularité d'être non différentiables ou très mal conditionnés. On montre qu'en utilisant des propriétés fines des fonctions à minimiser on peut obtenir des algorithmes de minimisation extrêmement efficaces. On analyse systématiquement leurs taux de convergence en utilisant des résultats récents dûs à Y. Nesterov. Les méthodes proposées correspondent - à notre connaissance - à l'état de l'art des méthodes de premier ordre. Dans une deuxième partie, nous nous intéressons au problème de la détection de changements entre deux images satellitaires prises au même endroit à des instants différents. Une des difficultés principales à surmonter pour résoudre ce problème est de s'affranchir des conditions d'illuminations différentes entre les deux prises de vue. Ceci nous mène à l'étude de l'invariance aux changements d'illuminations des lignes de niveau d'une image. On caractérise complètement les scènes qui fournissent des lignes de niveau invariantes. Celles-ci correspondent assez bien à des milieux urbains. On propose alors un algorithme simple de détection de changements qui fournit des résultats très satisfaisants sur des images synthétiques et des images Quickbird réelles.
32

Synthèse de régulateurs numériques robustes multivariables par optimisation convexe

Prochazka, Hynek 23 January 2004 (has links) (PDF)
La thèse concerne essentiellement les méthodes de synthèse de régulateurs numériques robustes, monovariables ou multivariables, pour la commande des procédés temps-continu. Pour la synthèse, il est supposé que l'on dispose d'un modèle linéaire échantillonné (discrétisé) du procédé continue à commander. La robustesse de régulateur est traitée par l'analyse fréquentielle des sensibilités (fonctions/matrices de transfert de la boucle fermée). Comme dans le cas de la commande H∞, les valeurs singulières des réponses fréquentielles sont examinées pour ces analyses.<br /><br />Le mémoire est divisé en cinq parties. La première partie concerne les systèmes monovariables et le reste est concentré sur les problèmes de synthèse dans le domaine multivariable. Les cinq parties traitent les problématiques suivantes:<br /><br />• La première partie (Chapitre 2) touche la synthèse de régulateurs robustes monovariables par le placement de pôles, le calibrage de sensibilités et l'optimisation convexe [LK98, LL99]. Elle présente une nouvelle approche de la synthèse par placement de pôles en utilisant les filtres bande-étroite du 2$^e$ ordre et un logiciel associé développé dans le cadre de ce travail. Le logiciel reflète les améliorations apportées qui ont radicalement simplifiées la procédure de synthèse. La section qui concerne l'optimisation convexe rappelle les principes est introduit la notation utilisée ultérieurement pour la théorie multivariable.<br />• La deuxième partie (Chapitre 3 et 4) évoque la théorie fondamentale de la commande multivariable et développe l'idée de la synthèse de régulateurs robustes multivariables par placement de pôles et calibrage des sensibilités. Le régulateur a la forme d'observateur avec le retour des états estimés et il est utilisé dans la suite comme le régulateur central pour la synthèse de régulateurs par optimisation convexe.<br />• La troisième partie (Chapitre 5) est la partie essentielle et elle développe la méthode de synthèse de régulateurs robustes multivariables par calibrage de sensibilités et optimisation convexe. La méthode est basée sur la même principe que celui utilisé dans le domaine monovariable [Lan98, LL99] et elle est réalisé comme une boite à outils interactive pour Matlab. Le placement de pôles multivariable est aussi intégré dans cette application. Le logiciel développé fait partie de la thèse et il est brièvement décrit dans ce chapitre.<br />• La quatrième partie (Chapitre 6) traite la synthèse par optimisation convexe du pré-compensateur multivariable pour la poursuite. Le pré-com\-pen\-sa\-teur nous permet de séparer les spécifications sur la robustesse (rejet de perturbations et traitement des incertitudes) et les spécifications sur la poursuite (temps de montée, dépassement maximal).<br />• La cinquième partie (Chapitre 7) concerne la technique de réduction des régulateurs multivariables par identification en boucle fermée. La méthode développée fait suite à un approche similaire développé pour les régulateurs monovariables dans [LKC01].
33

Décompositions en ondelettes redondantes pour le codage par descriptions multiples des images fixes et des séquences vidéo

Petrisor, Claudia Teodora 28 September 2009 (has links) (PDF)
L'utilisation croissante des réseaux à perte de paquets pour la transmission multimédia est placée sous le signe de la fiabilité des données sous contraintes de débit. L'objectif de cette thèse est de construire des représentations dites par "descriptions multiples", à faible redondance, pour compenser la perte d'information sur les canaux de transmission. Nous avons considéré des schémas basées sur des trames d'ondelettes, implantées en "lifting". Dans un premier temps, nous avons considéré la construction de deux descriptions selon l'axe temporel d'un codeur vidéo "t+2D". La redondance introduite par transformée a été ultérieurement réduite par un sous-échantillonnage supplémentaire appliqué aux sous-bandes de détail. Cela permet d'ajuster la redondance à la taille d'une sous-bande d'approximation en ondelettes classiques. Ceci rajoute en revanche un problème de reconstruction parfaite que nous avons étudié en détail. En outre, nous avons établi des critères de choix entre les plusieurs schémas possibles, basés sur la réduction du bruit de quantification. Ensuite, les méthodes ci-dessus ont été adaptées pour le signal bi-dimensionnel (images). Nous avons aussi proposé un post-traitement aux décodeurs, visant à améliorer la qualité de la reconstruction en situation de pertes. Enfin, nous avons abordé le sujet sous un nouvel angle, inspiré de la nouvelle théorie du "Compressed Sensing", en cherchant d'obtenir le débit optimal qui satisfait une contrainte de distorsion maximum autorisée et en exploitant le caractère creux du signal. Cette approche se distingue par le transfert de complexité à l'encodeur en gardant des décodeurs linéaires.
34

Problèmes de reconstruction en Imagerie par Résonance Magnétique parallèle à l'aide de représentations en ondelettes

Chaari, Lotfi 05 November 2010 (has links) (PDF)
Pour réduire le temps d'acquisition ou bien améliorer la résolution spatio-temporelle dans certaines application en IRM, de puissantes techniques parallèles utilisant plusieurs antennes réceptrices sont apparues depuis les années 90. Dans ce contexte, les images d'IRM doivent être reconstruites à partir des données sous-échantillonnées acquises dans le "k-space". Plusieurs approches de reconstruction ont donc été proposées dont la méthode SENSitivity Encoding (SENSE). Cependant, les images reconstruites sont souvent entâchées par des artéfacts dus au bruit affectant les données observées, ou bien à des erreurs d'estimation des profils de sensibilité des antennes. Dans ce travail, nous présentons de nouvelles méthodes de reconstruction basées sur l'algorithme SENSE, qui introduisent une régularisation dans le domaine transformé en ondelettes afin de promouvoir la parcimonie de la solution. Sous des conditions expérimentales dégradées, ces méthodes donnent une bonne qualité de reconstruction contrairement à la méthode SENSE et aux autres techniques de régularisation classique (e.g. Tikhonov). Les méthodes proposées reposent sur des algorithmes parallèles d'optimisation permettant de traiter des critères convexes, mais non nécessairement différentiables contenant des a priori parcimonieux. Contrairement à la plupart des méthodes de reconstruction qui opèrent coupe par coupe, l'une des méthodes proposées permet une reconstruction 4D (3D + temps) en exploitant les corrélations spatiales et temporelles. Le problème d'estimation d'hyperparamètres sous-jacent au processus de régularisation a aussi été traité dans un cadre bayésien en utilisant des techniques MCMC. Une validation sur des données réelles anatomiques et fonctionnelles montre que les méthodes proposées réduisent les artéfacts de reconstruction et améliorent la sensibilité/spécificité statistique en IRM fonctionnelle.
35

Méthodes d'optimisation pour l'espace et l'environnement

Touya, Thierry 19 September 2008 (has links) (PDF)
Ce travail se compose de deux parties relevant d'applications industrielles différentes. <br />La première traite d'une antenne spatiale réseau active. <br />Il faut d'abord calculer les lois d'alimentation pour satisfaire les contraintes de rayonnement. Nous transformons un problème avec de nombreux minima locaux en un problème d'optimisation convexe, dont l'optimum est le minimum global du problème initial, en utilisant le principe de conservation de l'énergie. <br />Nous résolvons ensuite un problème d'optimisation topologique: il faut réduire le nombre d'éléments rayonnants (ER). Nous appliquons une décomposition en valeurs singulières à l'ensemble des modules optimaux relaxés, puis un algorithme de type gradient topologique décide les regroupements entre ER élémentaires. <br /><br />La deuxième partie porte sur une simulation type boîte noire d'un accident chimique. <br />Nous effectuons une étude de fiabilité et de sensibilité suivant un grand nombre de paramètres (probabilités de défaillance, point de conception, et paramètres influents). Sans disposer du gradient, nous utilisons un modèle réduit. <br />Dans un premier cas test nous avons comparé les réseaux neuronaux et la méthode d'interpolation sur grille éparse Sparse Grid (SG). Les SG sont une technique émergente: grâce à leur caractère hiérarchique et un algorithme adaptatif, elles deviennent particulièrement efficaces pour les problèmes réels (peu de variables influentes). <br />Elles sont appliquées à un cas test en plus grande dimension avec des améliorations spécifiques (approximations successives et seuillage des données). <br />Dans les deux cas, les algorithmes ont donné lieu à des logiciels opérationnels.
36

Algorithmes d'optimisation en grande dimension : applications à la résolution de problèmes inverses / Large scale optimization algorithms : applications to solution of inverse problems

Repetti, Audrey 29 June 2015 (has links)
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données / An efficient approach for solving an inverse problem is to define the recovered signal/image as a minimizer of a penalized criterion which is often split in a sum of simpler functions composed with linear operators. In the situations of practical interest, these functions may be neither convex nor smooth. In addition, large scale optimization problems often have to be faced. This thesis is devoted to the design of new methods to solve such difficult minimization problems, while paying attention to computational issues and theoretical convergence properties. A first idea to build fast minimization algorithms is to make use of a preconditioning strategy by adapting, at each iteration, the underlying metric. We incorporate this technique in the forward-backward algorithm and provide an automatic method for choosing the preconditioning matrices, based on a majorization-minimization principle. The convergence proofs rely on the Kurdyka-L ojasiewicz inequality. A second strategy consists of splitting the involved data in different blocks of reduced dimension. This approach allows us to control the number of operations performed at each iteration of the algorithms, as well as the required memory. For this purpose, block alternating methods are developed in the context of both non-convex and convex optimization problems. In the non-convex case, a block alternating version of the preconditioned forward-backward algorithm is proposed, where the blocks are updated according to an acyclic deterministic rule. When additional convexity assumptions can be made, various alternating proximal primal-dual algorithms are obtained by using an arbitrary random sweeping rule. The theoretical analysis of these stochastic convex optimization algorithms is grounded on the theory of monotone operators. A key ingredient in the solution of high dimensional optimization problems lies in the possibility of performing some of the computation steps in a parallel manner. This parallelization is made possible in the proposed block alternating primal-dual methods where the primal variables, as well as the dual ones, can be updated in a quite flexible way. As an offspring of these results, new distributed algorithms are derived, where the computations are spread over a set of agents connected through a general hyper graph topology. Finally, our methodological contributions are validated on a number of applications in signal and image processing. First, we focus on optimization problems involving non-convex criteria, in particular image restoration when the original image is corrupted with a signal dependent Gaussian noise, spectral unmixing, phase reconstruction in tomography, and blind deconvolution in seismic sparse signal reconstruction. Then, we address convex minimization problems arising in the context of 3D mesh denoising and in query optimization for database management
37

Supervised metric learning with generalization guarantees / Apprentissage supervisé de métriques avec garanties en généralisation

Bellet, Aurélien 11 December 2012 (has links)
Ces dernières années, l'importance cruciale des métriques en apprentissage automatique a mené à un intérêt grandissant pour l'optimisation de distances et de similarités en utilisant l'information contenue dans des données d'apprentissage pour les rendre adaptées au problème traité. Ce domaine de recherche est souvent appelé apprentissage de métriques. En général, les méthodes existantes optimisent les paramètres d'une métrique devant respecter des contraintes locales sur les données d'apprentissage. Les métriques ainsi apprises sont généralement utilisées dans des algorithmes de plus proches voisins ou de clustering.Concernant les données numériques, beaucoup de travaux ont porté sur l'apprentissage de distance de Mahalanobis, paramétrisée par une matrice positive semi-définie. Les méthodes récentes sont capables de traiter des jeux de données de grande taille.Moins de travaux ont été dédiés à l'apprentissage de métriques pour les données structurées (comme les chaînes ou les arbres), car cela implique souvent des procédures plus complexes. La plupart des travaux portent sur l'optimisation d'une notion de distance d'édition, qui mesure (en termes de nombre d'opérations) le coût de transformer un objet en un autre.Au regard de l'état de l'art, nous avons identifié deux limites importantes des approches actuelles. Premièrement, elles permettent d'améliorer la performance d'algorithmes locaux comme les k plus proches voisins, mais l'apprentissage de métriques pour des algorithmes globaux (comme les classifieurs linéaires) n'a pour l'instant pas été beaucoup étudié. Le deuxième point, sans doute le plus important, est que la question de la capacité de généralisation des méthodes d'apprentissage de métriques a été largement ignorée.Dans cette thèse, nous proposons des contributions théoriques et algorithmiques qui répondent à ces limites. Notre première contribution est la construction d'un nouveau noyau construit à partir de probabilités d'édition apprises. A l'inverse d'autres noyaux entre chaînes, sa validité est garantie et il ne comporte aucun paramètre. Notre deuxième contribution est une nouvelle approche d'apprentissage de similarités d'édition pour les chaînes et les arbres inspirée par la théorie des (epsilon,gamma,tau)-bonnes fonctions de similarité et formulée comme un problème d'optimisation convexe. En utilisant la notion de stabilité uniforme, nous établissons des garanties théoriques pour la similarité apprise qui donne une borne sur l'erreur en généralisation d'un classifieur linéaire construit à partir de cette similarité. Dans notre troisième contribution, nous étendons ces principes à l'apprentissage de métriques pour les données numériques en proposant une méthode d'apprentissage de similarité bilinéaire qui optimise efficacement l'(epsilon,gamma,tau)-goodness. La similarité est apprise sous contraintes globales, plus appropriées à la classification linéaire. Nous dérivons des garanties théoriques pour notre approche, qui donnent de meilleurs bornes en généralisation pour le classifieur que dans le cas des données structurées. Notre dernière contribution est un cadre théorique permettant d'établir des bornes en généralisation pour de nombreuses méthodes existantes d'apprentissage de métriques. Ce cadre est basé sur la notion de robustesse algorithmique et permet la dérivation de bornes pour des fonctions de perte et des régulariseurs variés / In recent years, the crucial importance of metrics in machine learningalgorithms has led to an increasing interest in optimizing distanceand similarity functions using knowledge from training data to make them suitable for the problem at hand.This area of research is known as metric learning. Existing methods typically aim at optimizing the parameters of a given metric with respect to some local constraints over the training sample. The learned metrics are generally used in nearest-neighbor and clustering algorithms.When data consist of feature vectors, a large body of work has focused on learning a Mahalanobis distance, which is parameterized by a positive semi-definite matrix. Recent methods offer good scalability to large datasets.Less work has been devoted to metric learning from structured objects (such as strings or trees), because it often involves complex procedures. Most of the work has focused on optimizing a notion of edit distance, which measures (in terms of number of operations) the cost of turning an object into another.We identify two important limitations of current supervised metric learning approaches. First, they allow to improve the performance of local algorithms such as k-nearest neighbors, but metric learning for global algorithms (such as linear classifiers) has not really been studied so far. Second, and perhaps more importantly, the question of the generalization ability of metric learning methods has been largely ignored.In this thesis, we propose theoretical and algorithmic contributions that address these limitations. Our first contribution is the derivation of a new kernel function built from learned edit probabilities. Unlike other string kernels, it is guaranteed to be valid and parameter-free. Our second contribution is a novel framework for learning string and tree edit similarities inspired by the recent theory of (epsilon,gamma,tau)-good similarity functions and formulated as a convex optimization problem. Using uniform stability arguments, we establish theoretical guarantees for the learned similarity that give a bound on the generalization error of a linear classifier built from that similarity. In our third contribution, we extend the same ideas to metric learning from feature vectors by proposing a bilinear similarity learning method that efficiently optimizes the (epsilon,gamma,tau)-goodness. The similarity is learned based on global constraints that are more appropriate to linear classification. Generalization guarantees are derived for our approach, highlighting that our method minimizes a tighter bound on the generalization error of the classifier. Our last contribution is a framework for establishing generalization bounds for a large class of existing metric learning algorithms. It is based on a simple adaptation of the notion of algorithmic robustness and allows the derivation of bounds for various loss functions and regularizers.
38

Graph-based variational optimization and applications in computer vision / Optimisation variationnelle discrète et applications en vision par ordinateur

Couprie, Camille 10 October 2011 (has links)
De nombreuses applications en vision par ordinateur comme le filtrage, la segmentation d'images, et la stéréovision peuvent être formulées comme des problèmes d'optimisation. Récemment les méthodes discrètes, convexes, globalement optimales ont reçu beaucoup d'attention. La méthode des "graph cuts'", très utilisée en vision par ordinateur est basée sur la résolution d'un problème de flot maximum discret, mais les solutions souffrent d'un effet de blocs,notamment en segmentation d'images. Une nouvelle formulation basée sur le problème continu est introduite dans le premier chapitre et permet d'éviter cet effet. La méthode de point interieur employée permet d'optimiser le problème plus rapidement que les méthodes existantes, et la convergence est garantie. Dans le second chapitre, la formulation proposée est efficacement étendue à la restauration d'image. Grâce à une approche du à la contrainte et à un algorithme proximal parallèle, la méthode permet de restaurer (débruiter, déflouter, fusionner) des images rapidement et préserve un meilleur contraste qu'avec la méthode de variation totale classique. Le chapitre suivant met en évidence l'existence de liens entre les méthodes de segmentation "graph-cuts'", le "randomwalker'', et les plus courts chemins avec un algorithme de segmentation par ligne de partage des eaux (LPE). Ces liens ont inspiré un nouvel algorithme de segmentation multi-labels rapide produisant une ligne de partage des eaux unique, moins sensible aux fuites que la LPE classique. Nous avons nommé cet algorithme "LPE puissance''. L'expression de la LPE sous forme d'un problème d'optimisation a ouvert la voie à de nombreuses applications possibles au delà de la segmentation d'images, par exemple dans le dernier chapitre en filtrage pour l'optimisation d'un problème non convexe, en stéréovision, et en reconstruction rapide de surfaces lisses délimitant des objets à partir de nuages de points bruités / Many computer vision applications such as image filtering, segmentation and stereovision can be formulated as optimization problems. Recently discrete, convex, globally optimal methods have received a lot of attention. Many graph-based methods suffer from metrication artefacts, segmented contours are blocky in areas where contour information is lacking. In the first part of this work, we develop a discrete yet isotropic energy minimization formulation for the continuous maximum flow problem that prevents metrication errors. This new convex formulation leads us to a provably globally optimal solution. The employed interior point method can optimize the problem faster than the existing continuous methods. The energy formulation is then adapted and extended to multi-label problems, and shows improvements over existing methods. Fast parallel proximal optimization tools have been tested and adapted for the optimization of this problem. In the second part of this work, we introduce a framework that generalizes several state-of-the-art graph-based segmentation algorithms, namely graph cuts, random walker, shortest paths, and watershed. This generalization allowed us to exhibit a new case, for which we developed a globally optimal optimization method, named "Power watershed''. Our proposed power watershed algorithm computes a unique global solution to multi labeling problems, and is very fast. We further generalize and extend the framework to applications beyond image segmentation, for example image filtering optimizing an L0 norm energy, stereovision and fast and smooth surface reconstruction from a noisy cloud of 3D points
39

Compétition sur la visibilité et la popularité dans les réseaux sociaux en ligne / Competition over popularity and visibility on online social networks

Reiffers-Masson, Alexandre 12 January 2016 (has links)
Cette thèse utilise la théorie des jeux pour comprendre le comportement des usagers dans les réseaux sociaux. Trois problématiques y sont abordées: "Comment maximiser la popularité des contenus postés dans les réseaux sociaux?";" Comment modéliser la répartition des messages par sujets?";"Comment minimiser la propagation d’une rumeur et maximiser la diversité des contenus postés?". Après un état de l’art concernant ces questions développé dans le chapitre 1, ce travail traite, dans le chapitre 2, de la manière d’aborder l’environnement compétitif pour accroître la visibilité. Dans le chapitre 3, c’est le comportement des usagers qui est modélisé, en terme de nombre de messages postés, en utilisant la théorie des approximations stochastiques. Dans le chapitre 4, c’est une compétition pour être populaire qui est étudiée. Le chapitre 5 propose de formuler deux problèmes d’optimisation convexes dans le contexte des réseaux sociaux en ligne. Finalement, le chapitre 6 conclue ce manuscrit. / This Ph.D. is dedicated to the application of the game theory for the understanding of users behaviour in Online Social Networks. The three main questions of this Ph.D. are: " How to maximize contents popularity ? "; " How to model the distribution of messages across sources and topics in OSNs ? "; " How to minimize gossip propagation and how to maximize contents diversity? ". After a survey concerning the research made about the previous problematics in chapter 1, we propose to study a competition over visibility in chapter 2. In chapter 3, we model and provide insight concerning the posting behaviour of publishers in OSNs by using the stochastic approximation framework. In chapter 4, it is a popularity competition which is described by using a differential game formulation. The chapter 5 is dedicated to the formulation of two convex optimization problems in the context of Online Social Networks. Finally conclusions and perspectives are given in chapter 6.
40

Détection active de pannes dans les systèmes dynamiques en boucle fermée / Active fault detection in closed-loop dynamic systems

Esna Ashari Esfahani, Alireza 08 June 2010 (has links)
L'objectif de cette thèse est de développer une nouvelle méthodologie pour la détection active de défaillances, basée sur approche multimodèle et robuste des fautes. Ce travail prolonge des recherches effectuées dans le projet Metalau de l'Inria. L'apport essentiel de cette thèse est la prise en compte de modèles évoluant en boucle fermée. On utilise une approche multi-modèle pour modéliser le modèle en fonctionnement normal et le modèle défaillant. Les avantages potentiels de l'utilisation d'un feedback dynamique linéaire et ses propriétés de robustesse sont analysés dans la construction de signaux de détection auxiliaires. On compare les résultats obtenus avec ceux du cas boucle ouverte. La formulation du problème de détection active dans le cas d'un modèle en boucle fermée est nouvelle et repose sur la prise en considération de la norme du signal de détection auxiliaire comme critère d'optimisation. On considère aussi des fonctions coût plus générales, telles celles qui sont utilisées pour mesurer la performance de feedbacks dans des problèmes de la théorie de la commande linéaire robuste. La solution complète repose sur la résolution de plusieurs problèmes d'optimisation non standards / The aim is to develop a novel theory of robust active failure detection based on multi-model formulation of faults. The original method was already proposed by the Metalau group of INRIA. We have continued to work on the extension of this approach to more general cases. The focus is on the effects of feedback on the previous approach. The multi-model approach is still used to model the normal and the failed systems; however the possible advantages of using linear dynamic feedback in the construction of the auxiliary signal for robust fault detection is considered and the results are compared to the previously developed open-loop setup. An original formulation of the active fault detection problem using feedback is developed. The norm of the auxiliary signal is considered as a possible cost criterion. Also, we have considered a more general cost function that has already been used for measuring the performance of feedback configurations in Linear Control Theory. We have given a complete solution to this problem. In order to find a complete solution, several mathematical problems are solved

Page generated in 0.0934 seconds