Spelling suggestions: "subject:"estimateurs"" "subject:"estimate""
71 |
Application de l´approche par fonctions transverses à la commande de véhicules non-holonomes manoeuvrantsARTUS, Guillaume 09 May 2005 (has links) (PDF)
Ce travail de thèse se place dans le cadre de la conduite automatisée des véhicules sur roues.<br />Notre objectif est le développement et l´expérimentation d´une nouvelle approche de commande des systèmes non-linéaires en vue du suivi d´une cible, associée par exemple à un véhicule de référence. L´originalité de ce travail est que la cible n´est pas contrainte dans ces mouvements et peut donc suivre des trajectoires non réalisables par le véhicule commandé.<br />Il devient ainsi possible d´effectuer le suivi d´un véhicule de référence quelque soit le mouvement de celui-ci (marche avant, marche arrière, manoeuvres...).<br /><br />L´approche de commande étudiée ici est basée sur le concept de fonction transverse, et consiste à effectuer une stabilisation pratique du repère cible.<br />Dans un premier temps, nous analysons l´influence des paramètres de commande sur le suivi du repère.<br />A partir de cette analyse, nous proposons ensuite de nouvelles commandes qui permettent d´améliorer la précision du suivi et le comportement du système lors des phases transitoires.<br />Enfin, nous présentons des résultats d´expérimentations obtenus sur le système robotique du laboratoire Icare.<br />Cette phase expérimentale a nécessité de développer un estimateur de la vitesse de la cible. Celui-ci est basé sur la fusion des données issues de la vision et de celles issues des mesures odométriques.
|
72 |
Contributions théoriques et pratiques aux familles exponentiellesKokonendji, Célestin 02 December 2004 (has links) (PDF)
Les familles exponentielles de lois de probabilité offrent une panoplie de modèles très utiles en statistique ainsi qu'en probabilités. Les travaux résumés dans ce mémoire s'intéressent à leurs caractérisations et interprétations probabilistes, ainsi que leurs applications en statistique. Dans la première partie, une nouvelle classe de familles exponentielles naturelles (FEN) est introduite puis décrite complétement. Elle s'appuie sur une transformation dite de Lindsay des FEN de fonctions variance cubiques. Des interprétations probabilistes par les lois de temps de frappe des processus stochastiques sont données. Enfin, à travers une notion de d-pseudo-orthogonalité des polynômes associés à une densité de FEN, plusieurs caractérisations des FEN de fonctions variance polynomiales de degré 2d-1 sont données pour d=2,3,... . La deuxième partie est consacrée au déterminant des matrices de moments des lois multidimensionnelles. Deux aspects sont principalement explorés : le premier a trait à une caractérisation du déterminant de la hessienne d'une transformée de Laplace et ses conséquences ; le second concerne de meilleurs estimateurs de la variance généralisée ou du déterminant de la matrice de variance-covariance. Une nouvelle caractérisation des FEN Poisson-gaussiennes moyennant la variance généralisée est alors donnée. La troisième partie étudie des modèles exponentiels, de plus en plus appropriés et complémentaires, pour l'analyse statistique des données de comptage qui révèle une variabilité plus grande que la moyenne prédite. Ce phénomène dit de surdispersion par rapport à la loi de Poisson est examiné à travers des FEN binomiale négative généralisée et arcsinus stricte ainsi que d'une grande classe des FEN dite de Hinde-Demétrio, laquelle englobe la binomiale négative et l'arcsinus stricte. Des estimations et test d'hypothèses sur certains paramètres des modèles surdispersés sont proposés et appliquées sur des données réelles. Dans la dernière partie, deux techniques d'estimation sont présentées. La première est relative à une loi implicite ou conditionnelle d'un paramètre connaissant les observations. La seconde est une approche pour montrer l'unimodalité de la vraisemblance dans un modèle de capture séquentielle. Cette dernière est appliquée à l'estimation de la biomasse des saumons dans le bassin de l'Adour.
|
73 |
Analyse mathématique de la supraconductivité dans un domaine à coins: méthodes semi-classiques et numériquesBONNAILLIE, Virginie 11 December 2003 (has links) (PDF)
La théorie de la supraconductivité, modélisée par Ginzburg et Landau, motive les travaux relatifs à l'opérateur de Schrödinger avec champ magnétique. L'objet de cette thèse est d'analyser l'influence de la géométrie du domaine sur l'apparition de la supraconductivité en étendant les résultats existant pour des domaines réguliers à des domaines à coins. L'analyse semi-classique conduit à étudier trois opérateurs modèles : la réalisation de Neumann de l'opérateur de Schrödinger avec champ magnétique constant sur le plan, le demi-plan et les secteurs angulaires. L'étude des deux premiers est bien connue et nous nous concentrons sur le dernier. Après avoir déterminé le bas du spectre essentiel, nous montrons que le bas du spectre est une valeur propre pour un secteur d'angle aigu. Nous explicitons le développement limité de la plus petite valeur propre quand l'angle du secteur tend vers 0 et précisons la localisation de l'état fondamental grâce aux techniques d'Agmon. Nous illustrons et estimons ensuite le comportement des vecteurs et valeurs propres à l'aide d'outils numériques basés sur la méthode des éléments finis. La localisation de l'état fondamental rend le problème discret très mal conditionné mais l'analyse des propriétés de l'opérateur et des défauts des méthodes classiques permet malgré tout de mettre en oeuvre un algorithme robuste et efficace calculant l'état fondamental. Afin d'améliorer les résultats numériques, nous construisons des estimateurs a posteriori pour ce problème aux valeurs propres et utilisons les techniques de raffinement de maillages pour localiser l'état propre dans des domaines généraux et étudier la variation du bas du spectre en fonction de l'angle du secteur.
|
74 |
Un modèle de Markov caché en assurance et Estimation de frontière et de point terminalStupfler, Gilles 10 November 2011 (has links) (PDF)
Cette thèse est divisée en deux parties indépendantes. Dans une première partie, on introduit et on étudie un nouveau processus de pertes en assurance : c'est un triplet (J, N, S) où (J, N) est un processus de Poisson à modulation markovienne et S est un processus dont toutes les composantes sont des fonctions en escalier, croissantes en temps. Le processus S est supposé à accroissements indépendants conditionnellement au processus (J, N). En faisant une hypothèse paramétrique sur la loi de ses sauts, on démontre que l'estimateur du maximum de vraisemblance des paramètres du modèle est consistant. On donne un algorithme EM permettant de calculer en pratique cet estimateur : le procédé ainsi développé est utilisé sur des données réelles en assurance et ses performances sont évaluées sur simulations. Dans une seconde partie, on s'intéresse au problème de l'estimation du point terminal, supposé fini, d'une fonction de répartition F : étant donné un échantillon de variables aléatoires indépendantes identiquement distribuées de fonction de répartition F, on construit un estimateur du point terminal à droite de F en utilisant une méthode des moments d'ordre élevé. L'étude est scindée en deux cas : dans un premier temps, on suppose que les variables sont positives, puis on généralise la méthode au cas où elles sont de signe quelconque en proposant un autre estimateur. On étudie les propriétés asymptotiques de nos estimateurs, et leurs performances sont examinées sur simulations. On s'inspire ensuite des techniques développées pour construire un estimateur de la frontière du support d'un couple aléatoire. On étudie ses propriétés asymptotiques, et on le compare à des estimateurs classiques dans ce cadre.
|
75 |
Une méthode particulaire stochastique à poids aléatoires pour l'approximation de solutions statistiques d'équations de McKean-Vlasov-Fokker-Plank /Vaillant, Olivier (1971-.... Talay, Denis January 1900 (has links)
Thèse de doctorat : Mathématiques appliquées : Aix-Marseille 1 : 2000. / 2000AIX11004. Bibliogr.: p. 151-153.
|
76 |
Estimation par testsSart, Mathieu 25 November 2013 (has links) (PDF)
Cette thèse porte sur l'estimation de fonctions à l'aide de tests dans trois cadres statistiques différents. Nous commençons par étudier le problème de l'estimation des intensités de processus de Poisson avec covariables. Nous démontrons un théorème général de sélection de modèles et en déduisons des bornes de risque non-asymptotiques sous des hypothèses variées sur la fonction à estimer. Nous estimons ensuite la densité de transition d'une chaîne de Markov homogène et proposons pour cela deux procédures. La première, basée sur la sélection d'estimateurs constants par morceaux, permet d'établir une inégalité de type oracle sous des hypothèses minimales sur la chaîne de Markov. Nous en déduisons des vitesses de convergence uniformes sur des boules d'espaces de Besov inhomogènes et montrons que l'estimateur est adaptatif par rapport à la régularité de la densité de transition. La performance de l'estimateur est aussi évalué en pratique grâce à des simulations numériques. La seconde procédure peut difficilement être implémenté en pratique mais permet d'obtenir un résultat général de sélection de modèles et d'en déduire des vitesses de convergence sous des hypothèses plus générales sur la densité de transition. Finalement, nous proposons un nouvel estimateur paramétrique d'une densité. Son risque est contrôlé sous des hypothèses pour lesquelles la méthode du maximum de vraisemblance peut ne pas fonctionner. Les simulations montrent que ces deux estimateurs sont très proches lorsque le modèle est vrai et suffisamment régulier. Il est cependant robuste, contrairement à l'estimateur du maximum de vraisemblance.
|
77 |
Modèles statistiques du développement de tumeurs cancéreusesEmily, Mathieu 22 September 2006 (has links) (PDF)
Les nombreux mécanismes biologiques à l'origine du cancer restent aujourd'hui encore mal compris. L'amélioration de leurs connaissances peut s'effectuer par le biais de modèles mathématiques. Dans ce travail de thèse, nous nous sommes focalisés sur la mise en place d'outils statistiques pour la détection précoce de tumeurs. Nous avons proposé deux modèles stochastiques portant sur le développement de tumeurs cancéreuses. Le premier modèle s'intéresse à la détection de l'instabilité génétique dans une population de cellules. Nous nous sommes attachés à détecter l'événement initiateur de cette instabilité génétique en modélisant la généalogie des cellules par un arbre coalescent. Dans le deuxième modèle, nous nous sommes intéressés aux liens entre l'adhésion cellulaire et la croissance d'une tumeur. Nous avons intégré l'hypothèse d'adhésion différentielle dans un modèle d'interaction de Gibbs afin de quantifier le dysfonctionnement de l'adhésion cellulaire dans un tissu cancéreux.
|
78 |
Quelques contributions à la Théorie univariée des Valeurs Extrêmes et Estimation des mesures de risque actuariel pour des pertes à queues lourdesDeme, El Hadji 05 June 2013 (has links) (PDF)
Cette thèse est divisée en cinq chapitres auxquels s'ajoutent une introduction et une conclusion. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Dans le deuxième chapitre, nous considérons un processus statistique dépendant d'un paramétre continu tau et dont chaque marge peut être considérée comme un estimateur de Hill généralis.. Ce processus statistique permet de discriminer entièrement les domaines d'attraction des valeurs extrêmes. La normalité asymptotique de ce processus statistiquea été seulement donnée pour tau > 1/2. Nous complétons cette étude pour 0 < tau< 1/2, en donnant une approximation des domaines de Gumbel et de Fréchet. Des études de simulations effectuées avec le logiciel " R ", permettent de montrer la performance de ces estimateurs. Comme illustration, nous proposons une application de notre méthodologie aux données hydrauliques. Dans le troisième chapitre, nous étendons l'étude du processus statistique précédent dans un cadre fonctionnel. Nous proposons donc un processus stochastique dépendant d'une fonctionnelle positive pour obtenir une grande classe d'estimateurs de l'indice des valeurs extrêmes dont chaque estimateur est une marge d'un seul processus stochastique. L'étude théorique de ces processus stochastiques que nous avions menée, est basée sur la théorie moderne de convergence vague fonctionnelle. Cette dernière permet de gérer des estimateurs plus complexes sous forme de processus stochastiques. Nous donnons les distributions asymptotiques fonctionnelles de ces processus et nous montrons que pour certaines classes de fonctions, nous avons un comportement asymptotique non Gaussien et qui sera entièrement caractérisé. Dans le quatrième chapitre, on s'intéresse à l'estimation du paramètre du second ordre. Notons que ce paramètre joue un rôle très important dans le choix adaptatif du nombre optimal de valeurs extrêmes utilisé lors de l'estimation de l'indice des valeurs extrêmes. L'estimation de ce paramètre est également utilisée pour la réduction du biais des estimateurs de l'indice de queue et a reçu une grande attention dans la littérature des valeurs extrêmes .Nous proposons une simple et générale approche pour estimer le paramètre du second ordre, permettant de regrouper un grand nombre d'estimateurs. Il est montré que les estimateurs cités précedemment peuvent être vus comme des cas particuliers de notre approche. Nous tirons également parti de notre formalisme pour proposer de nouveaux estimateurs asymptotiquement Gaussiens du paramètre du second ordre. Finalement, certains estimateurs sont comparés tant du point de vue asymptotique que performance sur des échantillons de tailles finies. Comme illustration, nous proposons une application sur des données d'assurance. Dans le dernier chapitre, on s'intéresse aux mesures de risque actuariel pour des phénomènes capables d'engendrer des pertes financières très importantes (ou phenomènes extrêmes c'est-à-dire à des risques dont on ne sait pas si le système d'assurance sera capable de les supporte). De nombreuses mesures de risque ou principes de calcul de la prime ont été proposés dans la littérature actuarielle. Nous nous concentrons sur la prime de risque-ajustée. Jones et Zitikis (2003) ont donné une estimation de cette dernière basée sur la distribution empirique et ont établi sa normalité asymptotique sous certaines conditions appropriées, et qui ne sont pas souvent remplies dans le cas des distributions à queues lourdes. Ainsi, nous regardons ce cadre là et nous considérons une famille d'estimateurs de la prime de risque-ajustée basée sur l'approche de la théorie des valeurs extrêmes. Nous établissons leur normalité asymptotique et nous proposons également une approche de réduction de biais pour ces estimateurs. Des études de simulation permettent d'apprécier la qualité de nos estimateurs. Comme illustration, nous proposons une application sur des données d'assurance.
|
79 |
Repousser les limites de l'identification faciale en contexte de vidéo-surveillanceFiche, Cecile 31 January 2012 (has links) (PDF)
Les systèmes d'identification de personnes basés sur le visage deviennent de plus en plus répandus et trouvent des applications très variées, en particulier dans le domaine de la vidéosurveillance. Or, dans ce contexte, les performances des algorithmes de reconnaissance faciale dépendent largement des conditions d'acquisition des images, en particulier lorsque la pose varie mais également parce que les méthodes d'acquisition elles mêmes peuvent introduire des artéfacts. On parle principalement ici de maladresse de mise au point pouvant entraîner du flou sur l'image ou bien d'erreurs liées à la compression et faisant apparaître des effets de blocs. Le travail réalisé au cours de la thèse porte donc sur la reconnaissance de visages à partir d'images acquises à l'aide de caméras de vidéosurveillance, présentant des artéfacts de flou ou de bloc ou bien des visages avec des poses variables. Nous proposons dans un premier temps une nouvelle approche permettant d'améliorer de façon significative la reconnaissance des visages avec un niveau de flou élevé ou présentant de forts effets de bloc. La méthode, à l'aide de métriques spécifiques, permet d'évaluer la qualité de l'image d'entrée et d'adapter en conséquence la base d'apprentissage des algorithmes de reconnaissance. Dans un second temps, nous nous sommes focalisés sur l'estimation de la pose du visage. En effet, il est généralement très difficile de reconnaître un visage lorsque celui-ci n'est pas de face et la plupart des algorithmes d'identification de visages considérés comme peu sensibles à ce paramètre nécessitent de connaître la pose pour atteindre un taux de reconnaissance intéressant en un temps relativement court. Nous avons donc développé une méthode d'estimation de la pose en nous basant sur des méthodes de reconnaissance récentes afin d'obtenir une estimation rapide et suffisante de ce paramètre.
|
80 |
Techniques non-additives d'estimation de la densité de probabilitéNehme, Bilal 20 December 2010 (has links) (PDF)
Dans cette thèse, nous proposons une nouvelle méthode d'estimation non-paramétrique de la densité de probabilité. Cette méthode d'estimation imprécise combine la théorie de distribution de Schwartz et la théorie de possibilité. La méthode d'estimation que nous proposons est une extension de la méthode d'estimation à noyau. Cette extension est basée sur une nouvelle méthode de représentation de la notion de voisinage sur laquelle s'appuie l'estimation à noyau. Cette représentation porte le nom de noyau maxitif. L'estimation produite est de nature intervalliste. Elle est une enveloppe convexe d'un ensemble d'estimation de Parzen-Rosenblatt obtenus avec un ensemble de noyaux contenus dans une famille particulière. Nous étudions un certain nombre des propriétés théoriques liées à cette nouvelle méthode d'estimation. Parmi ces propriétés, nous montrons un certain type de convergence de cet estimateur. Nous montrons aussi une aptitude particulière de ce type d'estimation à quantifier l'erreur d'estimation liée à l'aspect aléatoire de la distribution des observations. Nous proposons un certain nombre d'algorithmes de faible complexité permettant de programmer facilement les mathodes que nous proposons.
|
Page generated in 0.0542 seconds