• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • Tagged with
  • 8
  • 8
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

REPRESENTATIONS DE GROUPES TOPOLOGIQUES ET ETUDE SPECTRALE D'OPERATEURS DE DECALAGE UNILATERAUX ET BILATERAUX

Dubernet, Sébastien 15 December 2005 (has links) (PDF)
Dans un premier temps, nous étudions la continuité d'une <br />représentation $\theta$ du groupe topologique $G$ dans une algèbre de Banach $A$ en fonction du comportement de $\limsup_{u \rightarrow 1}\| \theta(u)-I \|$, où $1$ désigne l'élément unité de $G$ et $I$ celui de $A$. Nous obtenons aussi des résultats de continuité automatique pour une large catégorie de représentations de groupes. <br /><br />Nous étudions ensuite, dans des cas concrets le spectre de l'opérateur $S_M: E/M \rightarrow E/M$ défini par $S(f+M)=Sf +M$, c'est-à-dire la compression de $S$ à $E/M$ où $E$ est un espace de Banach, $S:E \rightarrow E$ un opérateur borné et $M$ un sous-espace vectoriel fermé invariant par $S$, c'est-à-dire vérifiant $S(M) \subset M$. D'abord nous nous plaçons dans des espaces de Banach $E$ de fonctions analytiques sur le disque unité pour lesquels le shift usuel $S:z \mapsto zf$ et le shift arrière $T: f \mapsto \frac{f-f(0)}{z}$ ont leur spectre égal au cercle unité et vérifient la condition de non-quasianalyticité. Nous montrons que si $f \in M$ admet une extension analytique à $\D \cup D(\zeta,r)$, avec $|\zeta|=1$, $f(\zeta)\neq 0$, alors $\zeta \notin Spec(S_M)$. Nous appliquons ce résultat à l'espace de Hardy pondéré $H_{\sigma_{\alpha}}(\D)$, avec $\sigma_{\alpha}(n)=e^{-n^{\alpha}}$, $n \geq 0$, $\alpha \in (\frac{1}{2},1)$.<br /><br />Enfin nous étudions une situation quasianalytique, celle des espaces $l^2(w,\Z)$ à poids "$\log$-impairs". Soit $L$ un arc fermé non vide du cercle unité; nous montrons que la construction de Y.Domar de sous-espaces invariants par translations pour les espaces $l^2(w,\Z)$ vérifiant une condition naturelle de régularité, permet d'obtenir des sous-espaces $M_L$ tels que $Spec (S_{M_L})=L$, où $S: (u_n)_{n \in \Z} \mapsto (u_{n-1})_{n \in \Z}$ désigne le shift bilatéral usuel sur $l^2(w,\Z)$.
2

Modélisation fonctionnelle de profils de vitesse en lien avec l'infrastructure et méthodologie de construction d'un profil agrégé

Andrieu, Cindie 24 September 2013 (has links) (PDF)
La connaissance des vitesses pratiquées est une caractéristique essentielle du comportement des conducteurs et de leur usage du réseau routier. Cette information est rendue disponible grâce à la généralisation des véhicules connectés, mais aussi des smartphones, qui permettent d'accroître le nombre de "traceurs" susceptibles de renvoyer leur position et leur vitesse en temps réel. Dans cette thèse, nous proposons d'utiliser ces traces numériques et de développer une méthodologie, fondée sur une approche fonctionnelle, permettant d'extraire divers profils de vitesse caractéristiques. Dans une première partie, nous proposons une modélisation fonctionnelle des profils spatiaux de vitesse (i.e. vitesse vs distance parcourue) et nous étudions leurs propriétés (continuité, dérivabilité). Dans une seconde partie, nous proposons une méthodologie permettant de construire un estimateur d'un profil spatial de vitesse à partir de mesures bruitées de position et de vitesse, fondée sur les splines de lissage et la théorie des espaces de Hilbert à noyau reproduisant (RKHS). Enfin, la troisième partie est consacrée à la construction de divers profils agrégés (moyen, médian). Nous proposons notamment un alignement des profils par landmarks au niveau des arrêts, puis nous proposons la construction d'enveloppes de vitesse reflétant la dispersion des vitesses pratiquées.
3

Bases de fonctions sur les variétés / Function bases on manifolds

Vallet, Bruno 10 July 2008 (has links)
Les bases de fonctions sont des outils indispensables de la géométrie numérique puisqu'ils permettent de représenter des fonctions comme des vecteurs, c'est à dire d'appliquer les outils de l'algèbre linéaire à l'analyse fonctionnelle. Dans cette thèse, nous présentons plusieurs constructions de bases de fonctions sur des surfaces pour la géométrie numérique. Nous commençons par présenter les bases de fonctions usuelles des éléments finis et du calcul extérieur discret, leur théorie et leurs limites. Nous étudions ensuite le Laplacien et sa discrétisation, ce qui nous permettra de construire une base de fonctions particulière~: les fonctions propres de l'opérateur de Laplace-Beltrami, ou harmoniques variétés. Celles-ci permettent de généraliser la transformée de Fourier et le filtrage spectral aux fonctions définies sur des surfaces. Nous présentons ensuite des applications de cette base de fonction à la géométrie numérique. En particulier, nous montrons qu'une fois calculée, cette base de fonction permet de filtrer la géométrie en temps interactif. Pour pouvoir définir des bases de fonctions de façon plus indépendante du maillage de la surface, nous nous intéressons ensuite aux paramétrisations globales, et en particulier aux champs de directions à symétries qui permettent de les définir. Ainsi, dans la dernière partie, nous étudions ces champs de directions à symétries, et en particulier leur géométrie et leur topologie. Nous donnons alors des outils pour les construire, les manipuler et les visualiser / Function bases are fundamental objects in geometry processing as they allow to represent functions as vectors, that is to apply tools from linear algebra to functional analysis. In this thesis, we present various constructions of useful functions bases for geometry processing. We start by presenting usual function bases, their theory and limits. We then study the Laplacian operator and its discretization, and use it to define a particular function basis: Laplacian eigenfunctions or Manifold harmonics. The Manifold Hamonics form a function basis that allows to generalize the Fourier transform and spectral filtering on a surface. We present some applications and extensions of this basis for geometry processing. To define function bases in a mesh-independant manner, we need to build a global parameterization, and especially the direction fields required to define them. Thus, in the last part of this thesis we study N-symmetry direction fields on surfaces, and in particular their geometry and topology. We then give tools to build, edit, control and visualize them
4

Bases de fonctions sur les variétés

Vallet, Bruno 10 July 2008 (has links) (PDF)
Les bases de fonctions sont des outils indispensables de la géométrie numérique puisqu'ils permettent de représenter des fonctions comme des vecteurs, c'est à dire d'appliquer les outils de l'algèbre linéaire à l'analyse fonctionnelle. Dans cette thèse, nous présentons plusieurs constructions de bases de fonctions sur des surfaces pour la géométrie numérique. Nous commençons par présenter les bases de fonctions usuelles des éléments finis et du calcul extérieur discret, leur théorie et leurs limites. Nous étudions ensuite le Laplacien et sa discrétisation, ce qui nous permettra de construire une base de fonctions particulière: les fonctions propres de l'opérateur de Laplace-Beltrami, ou harmoniques variétés. Celles-ci permettent de généraliser la transformée de Fourier et le filtrage spectral aux fonctions définies sur des surfaces. Nous présentons ensuite des applications de cette base de fonction à la géométrie numérique. En particulier, nous montrons qu'une fois calculée, cette base de fonction permet de filtrer la géométrie en temps interactif. Pour pouvoir définir des bases de fonctions de façon plus indépendante du maillage de la surface, nous nous intéressons ensuite aux paramétrisations globales, et en particulier aux champs de directions à symétries qui permettent de les définir. Ainsi, dans la dernière partie, nous étudions ces champs de directions à symétries, et en particulier leur géométrie et leur topologie. Nous proposons enfin des outils pour les construire, les manipuler et les visualiser.
5

Quelques contributions au contrôle et aux équations rétrogrades en finance.

Fabre, Emilie 29 February 2012 (has links) (PDF)
Je me suis intéressée à résoudre certains problèmes financiers par du contrôle stochastique. On a premièrement considéré un problème mixte d'investissement optimal et de vente optimale. On a étudié le comportement d'un investisseur possédant un actif indivisible qu'il cherche à vendre tout en gérant en continu un portefeuille d'actifs risqués. Puis, on s'est intéressé à l'étude des équations stochastiques rétrogrades du premier et du second ordre avec contraintes convexes. Dans chaque cas, on a prouvé l'existence d'une solution minimale ainsi qu'une représentation stochastique pour ce problème. Enfin, on a étudié un modèle à volatilité stochastique où la volatilité instantanée dépend de la courbe de volatilité forward. On propose un développement asymptotique du prix de l'option pour de petites variations de la volatilité.
6

Stochastic approximation in Hilbert spaces / Approximation stochastique dans les espaces de Hilbert

Dieuleveut, Aymeric 28 September 2017 (has links)
Le but de l’apprentissage supervisé est d’inférer des relations entre un phénomène que l’on souhaite prédire et des variables « explicatives ». À cette fin, on dispose d’observations de multiples réalisations du phénomène, à partir desquelles on propose une règle de prédiction. L’émergence récente de sources de données à très grande échelle, tant par le nombre d’observations effectuées (en analyse d’image, par exemple) que par le grand nombre de variables explicatives (en génétique), a fait émerger deux difficultés : d’une part, il devient difficile d’éviter l’écueil du sur-apprentissage lorsque le nombre de variables explicatives est très supérieur au nombre d’observations; d’autre part, l’aspect algorithmique devient déterminant, car la seule résolution d’un système linéaire dans les espaces en jeupeut devenir une difficulté majeure. Des algorithmes issus des méthodes d’approximation stochastique proposent uneréponse simultanée à ces deux difficultés : l’utilisation d’une méthode stochastique réduit drastiquement le coût algorithmique, sans dégrader la qualité de la règle de prédiction proposée, en évitant naturellement le sur-apprentissage. En particulier, le cœur de cette thèse portera sur les méthodes de gradient stochastique. Les très populaires méthodes paramétriques proposent comme prédictions des fonctions linéaires d’un ensemble choisi de variables explicatives. Cependant, ces méthodes aboutissent souvent à une approximation imprécise de la structure statistique sous-jacente. Dans le cadre non-paramétrique, qui est un des thèmes centraux de cette thèse, la restriction aux prédicteurs linéaires est levée. La classe de fonctions dans laquelle le prédicteur est construit dépend elle-même des observations. En pratique, les méthodes non-paramétriques sont cruciales pour diverses applications, en particulier pour l’analyse de données non vectorielles, qui peuvent être associées à un vecteur dans un espace fonctionnel via l’utilisation d’un noyau défini positif. Cela autorise l’utilisation d’algorithmes associés à des données vectorielles, mais exige une compréhension de ces algorithmes dans l’espace non-paramétrique associé : l’espace à noyau reproduisant. Par ailleurs, l’analyse de l’estimation non-paramétrique fournit également un éclairage révélateur sur le cadre paramétrique, lorsque le nombre de prédicteurs surpasse largement le nombre d’observations. La première contribution de cette thèse consiste en une analyse détaillée de l’approximation stochastique dans le cadre non-paramétrique, en particulier dans le cadre des espaces à noyaux reproduisants. Cette analyse permet d’obtenir des taux de convergence optimaux pour l’algorithme de descente de gradient stochastique moyennée. L’analyse proposée s’applique à de nombreux cadres, et une attention particulière est portée à l’utilisation d’hypothèses minimales, ainsi qu’à l’étude des cadres où le nombre d’observations est connu à l’avance, ou peut évoluer. La seconde contribution est de proposer un algorithme, basé sur un principe d’accélération, qui converge à une vitesse optimale, tant du point de vue de l’optimisation que du point de vue statistique. Cela permet, dans le cadre non-paramétrique, d’améliorer la convergence jusqu’au taux optimal, dans certains régimes pour lesquels le premier algorithme analysé restait sous-optimal. Enfin, la troisième contribution de la thèse consiste en l’extension du cadre étudié au delà de la perte des moindres carrés : l’algorithme de descente de gradient stochastiqueest analysé comme une chaine de Markov. Cette approche résulte en une interprétation intuitive, et souligne les différences entre le cadre quadratique et le cadre général. Une méthode simple permettant d’améliorer substantiellement la convergence est également proposée. / The goal of supervised machine learning is to infer relationships between a phenomenon one seeks to predict and “explanatory” variables. To that end, multiple occurrences of the phenomenon are observed, from which a prediction rule is constructed. The last two decades have witnessed the apparition of very large data-sets, both in terms of the number of observations (e.g., in image analysis) and in terms of the number of explanatory variables (e.g., in genetics). This has raised two challenges: first, avoiding the pitfall of over-fitting, especially when the number of explanatory variables is much higher than the number of observations; and second, dealing with the computational constraints, such as when the mere resolution of a linear system becomes a difficulty of its own. Algorithms that take their roots in stochastic approximation methods tackle both of these difficulties simultaneously: these stochastic methods dramatically reduce the computational cost, without degrading the quality of the proposed prediction rule, and they can naturally avoid over-fitting. As a consequence, the core of this thesis will be the study of stochastic gradient methods. The popular parametric methods give predictors which are linear functions of a set ofexplanatory variables. However, they often result in an imprecise approximation of the underlying statistical structure. In the non-parametric setting, which is paramount in this thesis, this restriction is lifted. The class of functions from which the predictor is proposed depends on the observations. In practice, these methods have multiple purposes, and are essential for learning with non-vectorial data, which can be mapped onto a vector in a functional space using a positive definite kernel. This allows to use algorithms designed for vectorial data, but requires the analysis to be made in the non-parametric associated space: the reproducing kernel Hilbert space. Moreover, the analysis of non-parametric regression also sheds some light on the parametric setting when the number of predictors is much larger than the number of observations. The first contribution of this thesis is to provide a detailed analysis of stochastic approximation in the non-parametric setting, precisely in reproducing kernel Hilbert spaces. This analysis proves optimal convergence rates for the averaged stochastic gradient descent algorithm. As we take special care in using minimal assumptions, it applies to numerous situations, and covers both the settings in which the number of observations is known a priori, and situations in which the learning algorithm works in an on-line fashion. The second contribution is an algorithm based on acceleration, which converges at optimal speed, both from the optimization point of view and from the statistical one. In the non-parametric setting, this can improve the convergence rate up to optimality, even inparticular regimes for which the first algorithm remains sub-optimal. Finally, the third contribution of the thesis consists in an extension of the framework beyond the least-square loss. The stochastic gradient descent algorithm is analyzed as a Markov chain. This point of view leads to an intuitive and insightful interpretation, that outlines the differences between the quadratic setting and the more general setting. A simple method resulting in provable improvements in the convergence is then proposed.
7

Kernel LMS à noyau gaussien : conception, analyse et applications à divers contextes / Gaussian kernel least-mean-square : design, analysis and applications

Gao, Wei 09 December 2015 (has links)
L’objectif principal de cette thèse est de décliner et d’analyser l’algorithme kernel-LMS à noyau Gaussien dans trois cadres différents: celui des noyaux uniques et multiples, à valeurs réelles et à valeurs complexes, dans un contexte d’apprentissage distributé et coopératif dans les réseaux de capteurs. Plus précisement, ce travail s’intéresse à l’analyse du comportement en moyenne et en erreur quadratique de cas différents types d’algorithmes LMS à noyau. Les modèles analytiques de convergence obtenus sont validés par des simulations numérique. Tout d’abord, nous introduisons l’algorithme LMS, les espaces de Hilbert à noyau reproduisants, ainsi que les algorithmes de filtrage adaptatif à noyau existants. Puis, nous étudions analytiquement le comportement de l’algorithme LMS à noyau Gaussien dans le cas où les statistiques des éléments du dictionnaire ne répondent que partiellement aux statistiques des données d’entrée. Nous introduisons ensuite un algorithme LMS modifié à noyau basé sur une approche proximale. La stabilité de l’algorithme est également discutée. Ensuite, nous introduisons deux types d’algorithmes LMS à noyaux multiples. Nous nous concentrons en particulier sur l’analyse de convergence de l’un d’eux. Plus généralement, les caractéristiques des deux algorithmes LMS à noyaux multiples sont analysées théoriquement et confirmées par les simulations. L’algorithme LMS à noyau complexe augmenté est présenté et ses performances analysées. Enfin, nous proposons des stratégies de diffusion fonctionnelles dans les espaces de Hilbert à noyau reproduisant. La stabilité́ de cas de l’algorithme est étudiée. / The main objective of this thesis is to derive and analyze the Gaussian kernel least-mean-square (LMS) algorithm within three frameworks involving single and multiple kernels, real-valued and complex-valued, non-cooperative and cooperative distributed learning over networks. This work focuses on the stochastic behavior analysis of these kernel LMS algorithms in the mean and mean-square error sense. All the analyses are validated by numerical simulations. First, we review the basic LMS algorithm, reproducing kernel Hilbert space (RKHS), framework and state-of-the-art kernel adaptive filtering algorithms. Then, we study the convergence behavior of the Gaussian kernel LMS in the case where the statistics of the elements of the so-called dictionary only partially match the statistics of the input data. We introduced a modified kernel LMS algorithm based on forward-backward splitting to deal with $\ell_1$-norm regularization. The stability of the proposed algorithm is then discussed. After a review of two families of multikernel LMS algorithms, we focus on the convergence behavior of the multiple-input multikernel LMS algorithm. More generally, the characteristics of multikernel LMS algorithms are analyzed theoretically and confirmed by simulation results. Next, the augmented complex kernel LMS algorithm is introduced based on the framework of complex multikernel adaptive filtering. Then, we analyze the convergence behavior of algorithm in the mean-square error sense. Finally, in order to cope with the distributed estimation problems over networks, we derive functional diffusion strategies in RKHS. The stability of the algorithm in the mean sense is analyzed.
8

Generalization bounds for random samples in Hilbert spaces / Estimation statistique dans les espaces de Hilbert

Giulini, Ilaria 24 September 2015 (has links)
Ce travail de thèse porte sur l'obtention de bornes de généralisation pour des échantillons statistiques à valeur dans des espaces de Hilbert définis par des noyaux reproduisants. L'approche consiste à obtenir des bornes non asymptotiques indépendantes de la dimension dans des espaces de dimension finie, en utilisant des inégalités PAC-Bayesiennes liées à une perturbation Gaussienne du paramètre et à les étendre ensuite aux espaces de Hilbert séparables. On se pose dans un premier temps la question de l'estimation de l'opérateur de Gram à partir d'un échantillon i. i. d. par un estimateur robuste et on propose des bornes uniformes, sous des hypothèses faibles de moments. Ces résultats permettent de caractériser l'analyse en composantes principales indépendamment de la dimension et d'en proposer des variantes robustes. On propose ensuite un nouvel algorithme de clustering spectral. Au lieu de ne garder que la projection sur les premiers vecteurs propres, on calcule une itérée du Laplacian normalisé. Cette itération, justifiée par l'analyse du clustering en termes de chaînes de Markov, opère comme une version régularisée de la projection sur les premiers vecteurs propres et permet d'obtenir un algorithme dans lequel le nombre de clusters est déterminé automatiquement. On présente des bornes non asymptotiques concernant la convergence de cet algorithme, lorsque les points à classer forment un échantillon i. i. d. d'une loi à support compact dans un espace de Hilbert. Ces bornes sont déduites des bornes obtenues pour l'estimation d'un opérateur de Gram dans un espace de Hilbert. On termine par un aperçu de l'intérêt du clustering spectral dans le cadre de l'analyse d'images. / This thesis focuses on obtaining generalization bounds for random samples in reproducing kernel Hilbert spaces. The approach consists in first obtaining non-asymptotic dimension-free bounds in finite-dimensional spaces using some PAC-Bayesian inequalities related to Gaussian perturbations and then in generalizing the results in a separable Hilbert space. We first investigate the question of estimating the Gram operator by a robust estimator from an i. i. d. sample and we present uniform bounds that hold under weak moment assumptions. These results allow us to qualify principal component analysis independently of the dimension of the ambient space and to propose stable versions of it. In the last part of the thesis we present a new algorithm for spectral clustering. It consists in replacing the projection on the eigenvectors associated with the largest eigenvalues of the Laplacian matrix by a power of the normalized Laplacian. This iteration, justified by the analysis of clustering in terms of Markov chains, performs a smooth truncation. We prove nonasymptotic bounds for the convergence of our spectral clustering algorithm applied to a random sample of points in a Hilbert space that are deduced from the bounds for the Gram operator in a Hilbert space. Experiments are done in the context of image analysis.

Page generated in 0.0594 seconds