• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Constructions déterministes pour la régression parcimonieuse

De Castro, Yohann 03 December 2011 (has links) (PDF)
Dans cette thèse nous étudions certains designs déterministes pour la régression parcimonieuse. Notre problématique est largement inspirée du " Compressed Sensing " où l'on cherche à acquérir et compresser simultanément un signal de grande taille à partir d'un petit nombre de mesures linéaires. Plus précisément, nous faisons le lien entre l'erreur d'estimation et l'erreur de prédiction des estimateurs classiques (lasso, sélecteur Dantzig et basis pursuit) et la distorsion (qui mesure l'" écart " entre la norme 1 et la norme Euclidienne) du noyau du design considéré. Notre étude montre que toute construction de sous-espaces de faibles distorsions (appelés sous-espaces " presque "- Euclidiens) conduit à de " bons " designs. Dans un second temps, nous nous intéressons aux designs construits à partir de graphes expanseurs déséquilibrés. Nous en établissons de manière précise les performances en termes d'erreur d'estimation et d'erreur de prédiction. Enfin, nous traitons la reconstruction exacte de mesures signées sur la droite réelle. Nous démontrons que tout système de Vandermonde généralisé permet la reconstruction fidèle de n'importe quel vecteur parcimonieux à partir d'un très faible nombre d'observations. Dans une partie indépendante, nous étudions la stabilité de l'inégalité isopérimétrique sur la droite réelle pour des mesures log-concaves.
172

Perforamances statistiques d'estimateurs non-linéaires

Chichignoud, Michael 25 November 2010 (has links) (PDF)
On se place dans le cadre de l'estimation non paramétrique dans le modèle de régression. Dans un premier temps, on dispose des observations Y dont la densité $g$ est connue et dépend d'une fonction de régression $f(X)$ inconnue. Dans cette thèse, cette fonction est supposée régulière, i.e. appartenant à une boule de Hölder. Le but est d'estimer la fonction $f$ à un point $y$ (estimation ponctuelle). Pour cela, nous développons un estimateur local de type {\it bayésien}, construit à partir de la densité $g$ des observations. Nous proposons une procédure adaptative s'appuyant sur la méthode de Lepski, qui permet de construire un estimateur adaptatif choisi dans la famille des estimateurs bayésiens locales indexés par la fenêtre. Sous certaines hypothèses suffisantes sur la densité $g$, notre estimateur atteint la vitesse adaptative optimale (en un certain sens). En outre, nous constatons que dans certains modèles, l'estimateur bayésien est plus performant que les estimateurs linéaires. Ensuite, une autre approche est considérée. Nous nous plaçons dans le modèle de régression additive, où la densité du bruit est inconnue, mais supposée symétrique. Dans ce cadre, nous développons un estimateur dit de {\it Huber} reposant sur l'idée de la médiane. Cet estimateur permet d'estimer la fonction de régression, quelque soit la densité du bruit additif (par exemple, densité gaussienne ou densité de Cauchy). Avec la méthode de Lepski, nous sélectionnons un estimateur qui atteint la vitesse adaptative classique des estimateurs linéaires sur les espaces de Hölder.
173

Contributions à la planification d'expériences robuste à l'erreur structurelle

Roger, Morgan 26 November 2007 (has links) (PDF)
Nous traitons le problème de planification d'expériences robuste à l'erreur structurelle pour la régression, lorsque la structure de régression est paramétrique et linéaire par rapport aux paramètres. L'erreur structurelle est modélisée par un processus stochastique, gaussien ou plus généralement qui possède un moment d'ordre deux. On considère principalement le cas de l'estimation des paramètres par moindres carrés avec comme critère de performance du prédicteur l'intégrale de l'erreur quadratique de prédiction (IEQP), mais la démarche reste valable pour les moindres carrés pondérés et pour toute fonctionnelle linéaire de l'erreur de prédiction. Les critères d'optimalité retenus sont fondés sur l'espérance totale (par rapport à la loi conjointe du bruit et l'erreur structurelle) de l'IEQP et le quantile de l'IEQP, qu'on optimise pour les protocoles exacts à l'aide d'une méthode par essaim de particules. L'optimisation du quantile a nécessité de développer une méthode numérique efficace pour l'approximation du quantile d'une somme de carrés de variables gaussiennes centrées corrélées. Le problème de la dépendance des protocoles vis-à-vis des hyperparamètres (introduits par la fonction de covariance du processus stochastique) est traité par une approche de type maximin de l'efficacité, et aboutit à la définition d'un nouveau critère d'optimalité, dont l'optimisation est rendue possible par l'emploi d'une interpolation dans l'évaluation du critère. Les protocoles optimaux obtenus prouvent leurs bonnes performances vis-à-vis d'autres critères et se comparent favorablement à d'autres protocoles issus de critères de la littérature. L'application de la démarche à la conception d'un débitmètre robuste aux singularités de conduite permet d'illustrer comment introduire des connaissances a priori précises sur la nature de l'erreur structurelle, ici des données issues de codes aux éléments finis.
174

Approximation par projections et simulations de Monte-Carlo des équations différentielles stochastiques rétrogrades.

Lemor, Jean-Philippe 13 June 2005 (has links) (PDF)
Cette thèse traite de l'approximation des équations différentielles stochastiques rétrogrades (EDSR) par projections et simulations de Monte-Carlo. Les applications envisagées ont rapport aux mathématiques financières. Dans une première partie, nous proposons un premier algorithme dont nous étudions la convergence en fonction de ses paramètres. Ayant montré les limitations de ce premier algorithme, nous étudions dans une deuxième partie un second algorithme pour lequel nous établissons de nouvelles bornes d'erreurs. Celles-ci nous permettent d'obtenir une précision arbitrairement petite dans l'approximation des solutions d'EDSR. Nous étendons dans une troisième partie nos résultats au cas des EDSR rétrogrades qui permettent de modéliser le problème de réplication d'options américaines. Enfin, dans une dernière partie, nous expérimentons numériquement les algorithmes analysés précédemment. En conclusion, nous donnons des pistes pour étendre ce travail.
175

Méthodes robustes en vision : application aux appariements visuels

Lan, Zhong-Dan 01 May 1997 (has links) (PDF)
Cette thèse est consacrée au problème d'appariement visuel. Les problèmes de la robustesse et la précision sont considérés. Le problème des occultations partielles est traité à l'aide de la statistique robuste. Deux méthodes sont décrites. Une basée sur la régression robuste, et une autre basée sur la localisation robuste. Des expérimentations valident ces deux méthodes. Le problème de l'appariement précise est aussi considéré. Basé sur l'hypothèse de régularité locale, le décalage local peut être estimé à l'aide d'un masque de convolution entre deux fenêtres d'images sous une translation. Pour le cas non translationnel, une estimation de déformation des fenêtres d'images est faite de manière robuste, suivi d'une estimation de décalage local. Des expérimentations valident cette méthode d'appariement précis. Appariement visuel, étant un problème majeur en vision, est loin d'être résolu. Nous espérons que ce mémoire apporte des contributions à ce problème difficile.
176

Ingéniérie actuarielle : les modèles de régression non linéaires comme solutions à divers problèmes actuariels

Brouhns, Natacha 14 December 2005 (has links)
Cette thèse est mue par la volonté de son auteur (et de son promoteur) de mettre en évidence combien le concept d'ingéniérie actuarielle est non seulement un concept actuel mais également porteur d'avenir pour l'actuariat. Dans ingéniérie, on entend ingénieur, soit un individu formé à l'application des sciences, dans le but de résoudre des problèmes technologiques concrets et complexes. Ces compétences, traditionnellement plutôt utilisées par l'industrie, sont ici mises au service de l'Actuariat. Nous espérons montrer combien un actuaire ouvert aux techniques récentes de la Statistique peut enrichir sa panoplie d'outils pour répondre aux questions toujours plus variées que pose la pratique. Car là est aussi un des messages de ce travail: montrer que ces développements récents sont loin d'être de pures gymnastiques intellectuelles mais offrent de réelles solutions ou alternatives valables à des problèmes connus. Avec pour bagage les modèles de régression non linéaires, nous nous promenons dans les différents domaines de l'Actuariat, abordant tout d'abord un aspect méthodologique. Ensuite, nous traitons de deux problèmes liés à la branche Non Vie : tarification géographique et échelles bonus-malus. Enfin, nous voyons comment des perspectives nouvelles peuvent également s'inscrire dans la branche Vie, à travers la problématique de la modélisation de la mortalité future. Il ne s'agit en aucun cas d'un inventaire exhaustif des possibilités récentes offertes par la Statistique à l'Actuariat, mais bien d'un tour d'horizon qui entend ouvrir des portes dans des domaines variés. Cette thèse est composée d'articles (rédigés en anglais) publiés dans des revues nationales et internationales.
177

CONTRIBUTION A L'ANALYSE DES DETERMINANTS DE L'OFFRE D'INFORMATION SUR LE CAPITAL INTELLECTUEL

Escaffre, Lionel 28 November 2002 (has links) (PDF)
Les groupes cotés français développent depuis quelques années des stratégies de communication financière destinées à présenter les éléments constitutifs de leur capital intellectuel. La problématique de cette thèse consiste à s'interroger sur les facteurs qui influencent les entreprises à diffuser ce type d'informations qui dépassent ou complètent les dispositions comptables portant sur le traitement des éléments immatériels. La première partie rappelle l'émergence du capital intellectuel tant au sein de la gestion des groupes que dans les évolutions macro-économiques. Cette partie propose une définition conceptuelle du capital intellectuel validée au moyen d'études de cas. La seconde partie est consacrée à une analyse typologique puis factorielle de l'information tant comptable qu'extra-comptable, relatif au capital intellectuel, et diffusée par un échantillon de groupes cotés au SBF 120. Ce cadre d'analyse est ensuite testé à partir d'hypothèses théoriques issues de la théorie politico-contractuelle. Les résultats montrent une certaine limite de cette théorie pour approcher les déterminants de cette information. Le secteur d'activité, la part d'incorporel dans le bilan des groupes et le type de cabinet d'audit semblent influencer de manière significative l'offre d'information sur le capital intellectuel.
178

Estimation adaptative avec des données transformées ou incomplètes. Application à des modèles de survie

Chagny, Gaëlle 05 July 2013 (has links) (PDF)
Cette thèse présente divers problèmes d'estimation fonctionnelle adaptative par sélection d'estimateurs en projection ou à noyaux, utilisant des critères inspirés à la fois de la sélection de modèles et des méthodes de Lepski. Le point commun de nos travaux est l'utilisation de données transformées et/ou incomplètes. La première partie est consacrée à une procédure d'estimation par "déformation'', dont la pertinence est illustrée pour l'estimation des fonctions suivantes : régression additive et multiplicative, densité conditionnelle, fonction de répartition dans un modèle de censure par intervalle, risque instantané pour des données censurées à droite. Le but est de reconstruire une fonction à partir d'un échantillon de couples aléatoires (X,Y). Nous utilisons les données déformées (ф(X),Y) pour proposer des estimateurs adaptatifs, où ф est une fonction bijective que nous estimons également (par exemple la fonction de répartition de X). L'intérêt est double : d'un point de vue théorique, les estimateurs ont des propriétés d'optimalité au sens de l'oracle ; d'un point de vue pratique, ils sont explicites et numériquement stables. La seconde partie s'intéresse à un problème à deux échantillons : nous comparons les distributions de deux variables X et Xₒ au travers de la densité relative, définie comme la densité de la variable Fₒ(X) (Fₒ étant la répartition de Xₒ). Nous construisons des estimateurs adaptatifs, à partir d'un double échantillon de données, possiblement censurées. Des bornes de risque non-asymptotiques sont démontrées, et des vitesses de convergences déduites.
179

Quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 07 December 2006 (has links) (PDF)
Nous présentons quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes.<br />Deux axes de recherches orientent notre travail. Premier axe: étude de modèles statistiques complexes. Le point de départ de notre étude est le modèle de bruit blanc gaussien généralisé et le modèle de régression à pas aléatoires.<br />Ceux-ci font intervenir une fonction perturbant l'estimation de la fonction inconnue.<br />Notre objectif est de montrer l'influence exacte de cette fonction parasite via l'approche minimax sous le risque Lp. Dans un premier temps,<br />nous utilisons des méthodes en ondelettes pour cerner les limites de cette approche lorsque l'on se place sur des boules de Besov standards. Dans un deuxième temps, nous étudions l'alternative des boules de Besov pondérées et des méthodes en ondelettes déformées.<br />Deuxième axe: estimation adaptative. Nous étudions les performances de plusieurs estimateurs de seuillage par blocs en ondelettes sous le risque Lp.<br />Nous montrons leurs excellentes propriétés minimax et maxisets pour un large panel de modèles statistiques. En guise d'applications, nous traitons le modèle de régression à pas aléatoires et le modèle de convolution en bruit blanc gaussien.
180

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.

Page generated in 0.0441 seconds