• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 33
  • 1
  • Tagged with
  • 515
  • 263
  • 108
  • 94
  • 91
  • 84
  • 79
  • 78
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Lois limites uniformes et estimation non-paramétrique de la régression

Blondin, David 10 December 2004 (has links) (PDF)
Nous utilisons la théorie moderne des processus empiriques indicés par des classes de fonctions afin d'établir la vitesse exacte de convergence presque sûre d'une large classe d'estimateurs par la méthode du noyau de la fonction de régression dont les estimateurs par lissage polynomial local. Ces résultats prennent la forme de lois limites uniformes du logarithme dans le prolongement des travaux de Deheuvels et Mason (2004) et permettent la construction de bornes de confiance asymptotiquement optimales. La démonstration s'appuie principalement sur une inégalité exponentielle pour la déviation par rapport à l'espérance de la norme du supremum du processus empirique indexé par des classes de fonctions à nombre de recouvrement uniformément polynomial. Nous présentons également une loi limite uniforme du logarithme dans un cadre semi-paramétrique concernant l'estimateur du maximum de vraisemblance local lorsque la loi conditionnelle est paramétrée par une fonction.
72

Détermination de la qualité de la betterave sucrière par spectroscopie proche infrarouge et chimiométrie

ROGGO, YVES 17 July 2003 (has links) (PDF)
Actuellement, l'évaluation de la qualité de la betterave sucrière (Beta vulgaris) est réalisée par analyse d'un jus limpide obtenu après une défécation à l'acétate de plomb. Cependant les métaux lourds sont polluants et leur utilisation pourrait être interdite. C'est pourquoi la spectroscopie proche infrarouge (SPIR) est envisagée comme méthode alternative. La première partie de l'étude concerne la faisabilité du dosage du saccharose par SPIR en utilisant la polarimétrie comme méthode de référence. Afin d'obtenir l'erreur standard de prédiction (SEP) la plus faible possible, différents prétraitements spectraux et différentes méthodes de régression sont évalués. Une approche statistique permet de choisir le modèle utilisé. Ainsi un SEP de 0,1 g de saccharose pour 100 g de betteraves est obtenu sur une gamme de concentration allant de 14 à 21 g / 100 g. La seconde partie développe les problèmes de transfert d'étalonnage et de l'utilisation de la SPIR dans un contexte industriel. Plusieurs approches sont comparées : correction spectrale, correction des valeurs prédites et développement d'un modèle robuste. La dernière solution apparaît être la plus adaptée à notre étude. Il semble donc possible de déterminer la teneur en saccharose de la betterave sur plusieurs instruments en conservant la même précision. Enfin, la faisabilité de l'automatisation de la mesure spectrale est également abordée pour répondre aux cadences industrielles. La troisième partie concerne la détermination simultanée de plusieurs constituants de la betterave afin d'estimer sa qualité. Ainsi, le brix, la teneur en azote et d'autres paramètres sont évalués en appliquant la même démarche que pour le dosage du saccharose. De plus, des paramètres qualitatifs tels que l'origine géographique, la résistance à une maladie ou la période de récolte sont évalués grâce à des méthodes de classification supervisées.
73

Etude du processus empirique composé

Maumy, Myriam 02 December 2002 (has links) (PDF)
On établit d'abord une approximation forte du processus empirique composé par une combinaison linéaire d'un pont brownien et d'un processus de Wiener.Ensuite le module d'oscillation du processus empirique composé est étudié et en particulier on établit une loi limite sur le comportement des oscillations de ce processus.Une loi fonctionnelle est démontrée pour le processus empirique composé indexé par des intervalles. Enfin on établit une nouvelle démonstration de la loi du logarithme itéré pour l'estimateur non paramétrique de la régression par la méthode des noyaux.
74

Estimateurs fonctionnels récursifs et leurs applications à la prévision

Amiri, Aboubacar 06 December 2010 (has links) (PDF)
Nous nous intéressons dans cette thèse aux méthodes d'estimation non paramétriques par noyaux récursifs ainsi qu'à leurs applications à la prévision. Nous introduisons dans un premier chapitre une famille d'estimateurs récursifs de la densité indexée par un paramètre ℓ ∈ [0, 1]. Leur comportement asymptotique en fonction de ℓ va nous amener à introduire des critères de comparaison basés sur les biais, variance et erreur quadratique asymptotiques. Pour ces critères, nous comparons les estimateurs entre eux et aussi comparons notre famille à l'estimateur non récursif de la densité de Parzen-Rosenblatt. Ensuite, nous définissons à partir de notre famille d'estimateurs de la densité, une famille d'estimateurs récursifs à noyau de la fonction de régression. Nous étudions ses propriétés asymptotiques en fonction du paramètre ℓ. Nous utilisons enfin les résultats obtenus sur l'estimation de la régression pour construire un prédicteur non paramétrique par noyau. Nous obtenons ainsi une famille de prédicteurs non paramétriques qui permettent de réduire considérablement le temps de calcul. Des exemples d'application sont donnés pour valider la performance de nos estimateurs
75

Forêts aléatoires : aspects théoriques, sélection de variables et applications

Genuer, Robin 24 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de l'apprentissage statistique et est consacrée à l'étude de la méthode des forêts aléatoires, introduite par Breiman en 2001. Les forêts aléatoires sont une méthode statistique non paramétrique, qui s'avère être très performante dans de nombreuses applications, aussi bien pour des problèmes de régression que de classification supervisée. Elles présentent également un bon comportement sur des données de très grande dimension, pour lesquelles le nombre de variables dépasse largement le nombre d'observations. Dans une première partie, nous développons une procédure de sélection de variables, basée sur l'indice d'importance des variables calculée par les forêts aléatoires. Cet indice d'importance permet de distinguer les variables pertinentes des variables inutiles. La procédure consiste alors à sélectionner automatiquement un sous-ensemble de variables dans un but d'interprétation ou de prédiction. La deuxième partie illustre la capacité de cette procédure de sélection de variables à être performante pour des problèmes très différents. La première application est un problème de classification en très grande dimension sur des données de neuroimagerie, alors que la seconde traite des données génomiques qui constituent un problème de régression en plus petite dimension. Une dernière partie, théorique, établit des bornes de risque pour une version simplifiée des forêts aléatoires. Dans un contexte de régression, avec une seule variable explicative, nous montrons d'une part que les estimateurs associés à un arbre et à une forêt atteignent tous deux la vitesse minimax de convergence, et d'autre part que la forêt apporte une amélioration en réduisant la variance de l'estimateur d'un facteur de trois quarts.
76

Une nouvelle méthode d'apprentissage de données structurées : applications à l'aide à la découverte de médicaments

Goulon-Sigwalt-Abram, Aurélie 21 May 2008 (has links) (PDF)
La modélisation de propriétés et d'activités de molécules constitue un champ de recherche important, qui permet par exemple de guider la synthèse de médicaments. Les méthodes traditionnelles de modélisation établissent des relations non linéaires entre les propriétés étudiées et les caractéristiques structurelles des molécules, appelées descripteurs. Leurs principaux inconvénients résident dans la difficulté du choix des descripteurs et leur calcul préalable. Nous avons mis au point une nouvelle technique de modélisation qui s'affranchit de ces problèmes, en établissant une relation directe entre la structure des données et la propriété modélisée. L'apprentissage s'effectue non plus à partir de vecteurs de données, mais à partir de graphes. Les molécules peuvent en effet être représentées par des graphes, qui tiennent compte des liaisons chimiques, de la nature des atomes ou encore de la stéréochimie du composé initial. Chaque graphe de la base étudiée est alors associé à une fonction de même structure mathématique, appelée graph machine, obtenue par combinaison de fonctions paramétrées identiques. Ces paramètres sont alors déterminés par apprentissage. Nous montrons que les techniques traditionnelles de sélection de modèle peuvent être utilisées dans le cadre des graph machines ; elles permettent d'évaluer les capacités en généralisation des modèles proposés, mais aussi de détecter les catégories de molécules sous-représentées dans la base d'apprentissage, et d'estimer les intervalles de confiance des prédictions. De très bons résultats ont été obtenus par l'utilisation de cette technique sur un grand nombre de bases de données de propriétés ou d'activités moléculaires.
77

Contribution à l'étude des M-estimateurs polynômes locaux

Sabbah, Camille 01 July 2010 (has links) (PDF)
L'objet de cette thèse est d'établir des résultats asymptotiques pour l'estimateur du quantile conditionnel par la méthode des polynômes locaux ainsi qu'à la généralisation de ces résultats pour les M-estimateurs. Nous étudions ces estimateurs et plus particulièrement leur représentation de Bahadur et leur biais. Nous donnons en outre un résultat sur les intervalles de confiance uniformes construits à partir de cette représentation pour le quantile conditionnel et ses dérivées.
78

Réduction de dimension en présence de données censurées

Lopez, Olivier 06 December 2007 (has links) (PDF)
Nous considérons des modèles de régression où la variable expliquée est censurée à droite aléatoirement. Nous proposons de nouveaux estimateurs de la fonction de régression dans des modèles paramétriques, et nous proposons une procédure de test non paramétrique d'adéquation à ces modèles. Nous prolongeons ces méthodes à l'étude du modèle semi-paramétrique "single-index", généralisant ainsi des techniques de réduction de dimension utilisées en l'absence de censure. Nous nous penchons tout d'abord sur le cas d'un modèle où la variable de censure est indépendante de la variable expliquée ainsi que des variables explicatives. Nous travaillons dans un second temps dans un cadre moins restrictif où la variable expliquée et la censure sont indépendantes conditionnellement aux variables explicatives. Une difficulté spécifique à ce dernier type de modèle tient en l'impossibilité des techniques actuelles à estimer une espérance conditionnelle (de façon paramétrique ou non) en présence de plus d'une<br />variable explicative. Nous développons une nouvelle approche de réduction de la dimension afin de résoudre ce problème.
79

Statut de la faillite en théorie financière : approches théoriques et validations empiriques dans le contexte français

Ben Jabeur, Sami 27 May 2011 (has links) (PDF)
Dans la conjoncture économique actuelle un nombre croissant de firmes se trouvent confrontées à des difficultés économiques et financières qui peuvent, dans certains cas, conduire à la faillite. En principe, les difficultés ne surviennent pas brutalement, en effet, avant qu'une entreprise soit déclarée en faillite, elle est confrontée à des difficultés financières de gravité croissante : défaut de paiement d'une dette, insolvabilité temporaire, pénurie de liquidité, etc. L'identification des causes de la défaillance n'est pas évidente, puisqu'on ne saurait énumérer de manière limitative les facteurs qui la provoquent. Les causes sont multiples et leur cumul compromet d'autant plus la survie de l'entreprise. L'importance de ce phénomène et son impact sur l'ensemble de l'économie justifie le besoin de le comprendre, l'expliquer en analysant les causes et les origines. L'objectif de notre étude est de classer les entreprises en difficulté selon leur degré de viabilité et de comprendre les causes de la dégradation de leur situation. Nous effectuerons une comparaison entre trois modèles (Analyse discriminante linéaire, le modèle Logit et la régression PLS) ce qui nous permettra à partir des taux de bon classement obtenus, de choisir le meilleur modèle tout en précisant l'origine et les causes de ces défaillances.
80

Méthodes d'estimation statistique pour le suivi de cibles à l'aide d'un réseau de capteurs

Ickowicz, Adrien 06 May 2010 (has links) (PDF)
Cette thèse s'intéresse à l'estimation des paramètres du mouvement d'une ou plusieurs cibles évoluant au sein d'une zone surveillée par un réseau de capteurs. Dans une première partie nous proposons de déterminer de façon exacte l'influence de paramètres d'influence du pistage à l'aide de la détermination d'une expression explicite d'une probabilité de bonne association. Nous parvenons à extraire l'influence de ces variables à l'aide de l'utilisation de méthodes numériques. Dans un deuxième temps nous nous intéressons à un type de capteurs bien particuliers. Nous supposons en effet que nous disposons de l'instant de plus grande proximité entre la cible et chaque capteur du réseau. A partir de ces données partielles, nous nous proposons de reconstruire la trajectoire de la cible. Après avoir montré que nous ne pouvions estimer conjointement la position et la vitesse de la cible, nous proposons des méthodes d'estimation du vecteur vitesse dans divers cas de trajectoire envisagés. Enfin, nous étudions dans la troisième partie de ce document le cas d'un réseau de capteurs binaires directionnels. Après une étude rapide sur l'estimation du vecteur vitesse dans le cas d'un mouvement rectiligne uniforme, nous étendons notre approche au cas ou le mouvement de la cible suivrait une marche aléatoire gaussienne, et nous proposons un nouvel algorithme permettant d'estimer conjointement les vecteurs vitesse et position. Nous proposons enfin une solution d'extension de notre algorithme au suivi multicible. Nous présentons dans chacun des scénarios des résultats de simulation illustrant les performances des méthodes proposées.

Page generated in 0.0954 seconds