• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 22
  • 10
  • Tagged with
  • 93
  • 34
  • 28
  • 21
  • 17
  • 17
  • 15
  • 13
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Simulation numérique multidimensionnelle d'écoulements estuariens

Pétrau, Agnès 07 December 2009 (has links) (PDF)
On s'intéresse dans cette thèse à la modélisation et à la simulation multidimensionnelle de l'hydrodynamique fluviale, notamment près des estuaires. Le modèle physique de référence est le modèle 3D, mais au vu de son important coût de calcul, il est intéressant de disposer de modèles plus simples en 1D, 2D ou 2.5D, que l'on peut utiliser dans des zones adéquates du fleuve, en fonction de sa bathymétrie. Ainsi, à partir du modèle 3D basé sur les équations instationnaires et incompressibles de Navier-Stokes, des modèles plus simples sont dérivés par projection par formulations faibles du problème 3D. On obtient ainsi un modèle en 1D, écrit sur la courbe médiane de la surface libre du fleuve, ainsi que deux modèles en 2D, le 2D-vertical écrit sur la surface longitudinale médiane du fleuve et le 2D-horizontal écrit sur la surface libre. Enfin on définit un modèle en quasi-3D, le modèle 2.5D, écrit dans la somme des espaces 2D-vertical et 2D-horizontal. Tous ces modèles prennent en compte la géométrie du fleuve et fournissent une vitesse tridimensionnelle ainsi que la pression, qui n'est pas supposée hydrostatique mais qui est une inconnue entière du problème. En outre, on définit et justifie un estimateur de modèles entre le modèle 3D et chacune de ses approximations en 1D, 2D et 2.5D. Cet estimateur calcule l'erreur entre le modèle 3D et son approximation, et donne ainsi une indication sur la qualité des résultats obtenus à partir des modèles 1D, 2D ou 2.5D, dans leurs zones respectives de calcul. Tous ces modèles hydrodynamiques sont implémentés dans des codes d'éléments finis, écrits en C++. Enfin, ils sont couplés numériquement à l'aide de l'estimateur de modèles.
22

Sur quelques problèmes d'apprentissage supervisé et non supervisé

Laloë, Thomas 27 November 2009 (has links) (PDF)
L'objectif de cette Thèse est d'apporter une contribution au problème de l'apprentissage statistique, notamment en développant des méthodes pour prendre en compte des données fonctionnelles. Dans la première partie, nous développons une approche de type plus proches voisins pour la régression fonctionnelle. Dans la deuxième, nous étudions les propriétés de la méthode de quantification dans des espaces de dimension infinie. Nous appliquons ensuite cette méthode pour réaliser une étude comportementale de bancs d'anchois. Enfin, la dernière partie est dédiée au problème de l'estimation des ensembles de niveaux de la fonction de régression dans un cadre multivarié.
23

Espaces non-euclidiens et analyse d'image : modèles déformables riemanniens et discrets, topologie et géométrie discrète

Lachaud, Jacques-Olivier 06 December 2006 (has links) (PDF)
Les travaux présentés dans ce mémoire d'habilitation correspondent à des recherches effectuées depuis mon arrivée à Bordeaux en septembre 1999. J'ai choisi d'y présenter celles qui ont trait aux approches non-euclidiennes pour l'analyse d'image, la clé de voûte en étant la segmentation par modèle déformable. D'autres travaux plus amonts comme la topologie des espaces subdivisés et les invariants topologiques ou plus avals comme la reconstruction de colonne vertébrale en imagerie radiographique ne seront qu'évoqués. Ce choix, s'il peut sembler restrictif par rapport à une synthèse exhaustive de mes travaux, présente néanmoins une plus grande cohérence, à la fois dans les résultats et dans la démarche suivie. Ce mémoire montre notamment que l'utilisation d'autres géométries que la géométrie euclidienne classique, les géométries riemannienne et discrète, présente un intérêt certain en analyse d'images. Les modèles déformables constituent une technique classique de segmentation et de reconstruction en analyse d'image. Dans ce cadre, le problème de la segmentation est exprimé sous forme variationnelle, où la solution est idéalement le minimum d'une fonctionnelle. Pendant ma thèse, je m'étais déjà intéressé aux modèles hautement déformables, qui ont la double caractéristique de se baser uniquement sur l'information image pour repérer ses composantes et de pouvoir extraire des formes de complexité arbitraire. Pour assurer l'initialisation du modèle déformable, j'avais aussi mis en évidence les liens entre surfaces discrètes et triangulations d'isosurfaces. Ces premiers travaux expliquent le cheminement que j'ai suivi depuis dans mes recherches. En voulant attaquer deux problématiques fondamentales des modèles déformables (la minimisation du nombre de paramètres et de la complexité, la recherche d'une solution plus proche de l'optimale), j'ai été amené à changer l'espace de travail classique : l'espace euclidien. Le Chapitre 1 résume les approches classiques des modèles déformables, leurs différentes formulations, ainsi que les problématiques spécifiques auxquelles je me suis intéressé. Il montre enfin en quoi la formulation des modèles déformables dans des espaces non-euclidiens ouvre des pistes intéressantes pour les résoudre. La première voie explorée et résumée dans le Chapitre 2 est d'introduire une métrique riemannienne, variable dans l'espace et dépendante de l'information image locale. L'utilisation d'une autre métrique permet de déformer virtuellement l'espace afin de concentrer l'effort de calcul sur les zones d'intérêt de l'image. Une métrique judicieusement choisie permet d'adapter le nombre de paramètres du modèle déformable à la géométrie de la forme recherchée. Le modèle pourra ainsi se déplacer très vite sur les zones homogènes, extraire les parties droites, planes ou peu courbées avec très peu de paramètres, et conserver une grande précision sur les contours significatifs très courbés. Une telle approche conserve voire améliore la qualité et la robustesse de la segmentation, et minimise à la fois la complexité en temps et le nombre d'itérations avant convergence. La deuxième voie explorée parallèlement est le remplacement de l'espace euclidien continu par la grille cellulaire discrète. L'espace des formes possibles est alors fini tout en restant adapté à l'échantillonnage de l'image. D'autres techniques d'optimisation sont dès lors envisageables, la solution est bien définie et les problèmes numériques liés à la convergence d'un processus ne sont plus présents. Le Chapitre 3 décrit le principe suivi pour discrétiser le modèle déformable sur la grille cellulaire Z^n. Il présente les premiers résultats obtenus avec un algorithme de segmentation a posteriori. Il met aussi en évidence les problématiques soulevées par le passage au discret, problématiques qui se sont révélées être des voies de recherche par elles-mêmes. D'une part, il faut mettre au point des structures de données et des outils pour représenter les surfaces discrètes, pour mesurer leurs paramètres géométriques, et pour les faire évoluer. Le Chapitre 4 synthétise les travaux menés en ce sens. Cela nous conduit à proposer un nouveau formalisme algébrique pour représenter ces surfaces en dimension quelconque. Une étude précise des estimateurs géométriques discrets de tangente, de normale, de longueur et de courbure est ensuite conduite. Nous avons notamment évalué quantitativement leurs performances à basse échelle et proposé de nouveaux estimateurs pour les améliorer. Leurs propriétés asymptotiques lorsque la discrétisation est de plus en plus fine sont enfin discutées. D'autre part, le modèle déformable discret doit approcher au mieux le comportement du modèle déformable euclidien à résolution donnée mais aussi simuler de plus en plus exactement ce comportement lorsque la résolution augmente asymptotiquement. Les estimateurs géométriques discrets se doivent dès lors d'être convergents. En analysant finement la décomposition des courbes discrètes en segments discrets maximaux, nous avons obtenu des théorèmes de convergence ou de non-convergence de certains estimateurs. Le Chapitre 5 résume cette étude de la géométrie des courbes discrètes 2D et des propriétés géométriques asymptotiques du bord d'une discrétisation. Le mémoire se conclut par une synthèse des principaux résultats obtenus et montre les perspectives de recherche ouvertes par ces travaux.
24

Aspects statistiques de la stabilité en dynamique des populations : application au modèle de Usher en foresterie.

Zetlaoui, Mélanie 07 December 2006 (has links) (PDF)
Le modèle de Usher est un modèle matriciel qui décrit l'évolution en temps discret d'une population<br />structurée par taille et qui restreint les transitions entre les classes d'état. Il est particulièrement<br />adapté pour décrire la dynamique d'un peuplement forestier et sert de guide dans la gestion des<br />forêts. Cette étude porte sur les prédictions dans l'état stationnaire du modèle. L'objectif principal<br />est la construction d'intervalles de confiance de ces prédictions. Dans un premier temps, des<br />intervalles de confiance asymptotiques sont construits en utilisant les estimateurs du maximum de<br />vraisemblance des prédictions. La distribution asymptotique de ces estimateurs est obtenue grâce<br />à la delta-méthode. Les résultats sont étendus, dans un autre chapitre, au cas du modèle densitédépendant,<br />dans lequel les paramètres sont fonctions des caractéristiques courantes de la population.<br />Dans un deuxième temps, les intervalles de confiance asymptotiques sont affinés en cherchant des<br />estimateurs robustes des paramètres de transition du modèle. Cette recherche est guidée par deux<br />types de contraintes du modèle portant sur sa structure discrète et sur la dynamique de la population.<br />Les estimateurs des paramètres ainsi construits sont des L-estimateurs exprimés dans un<br />modèle statistique multidimensionnel. Le critère de robustesse utilisé est la sensibilité des estimateurs,<br />basé sur la notion de fonction d'influence. Les résultats théoriques sont appliqués un jeu de<br />données réelles d'un peuplement forestier en Guyane Française et les implications pratiques sont<br />discutées.
25

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.
26

Modélisation des données d'enquêtes cas-cohorte par imputation multiple : Application en épidémiologie cardio-vasculaire.

Marti soler, Helena 04 May 2012 (has links) (PDF)
Les estimateurs pondérés généralement utilisés pour analyser les enquêtes cas-cohorte ne sont pas pleinement efficaces. Or, les enquêtes cas-cohorte sont un cas particulier de données incomplètes où le processus d'observation est contrôlé par les organisateurs de l'étude. Ainsi, des méthodes d'analyse pour données manquant au hasard (MA) peuvent être pertinentes, en particulier, l'imputation multiple, qui utilise toute l'information disponible et permet d'approcher l'estimateur du maximum de vraisemblance partielle.Cette méthode est fondée sur la génération de plusieurs jeux plausibles de données complétées prenant en compte les différents niveaux d'incertitude sur les données manquantes. Elle permet d'adapter facilement n'importe quel outil statistique disponible pour les données de cohorte, par exemple, l'estimation de la capacité prédictive d'un modèle ou d'une variable additionnelle qui pose des problèmes spécifiques dans les enquêtes cas-cohorte. Nous avons montré que le modèle d'imputation doit être estimé à partir de tous les sujets complètement observés (cas et non-cas) en incluant l'indicatrice de statut parmi les variables explicatives. Nous avons validé cette approche à l'aide de plusieurs séries de simulations: 1) données complètement simulées, où nous connaissions les vraies valeurs des paramètres, 2) enquêtes cas-cohorte simulées à partir de la cohorte PRIME, où nous ne disposions pas d'une variable de phase-1 (observée sur tous les sujets) fortement prédictive de la variable de phase-2 (incomplètement observée), 3) enquêtes cas-cohorte simulées à partir de la cohorte NWTS, où une variable de phase-1 fortement prédictive de la variable de phase-2 était disponible. Ces simulations ont montré que l'imputation multiple fournissait généralement des estimateurs sans biais des risques relatifs. Pour les variables de phase-1, ils approchaient la précision obtenue par l'analyse de la cohorte complète, ils étaient légèrement plus précis que l'estimateur calibré de Breslow et coll. et surtout que les estimateurs pondérés classiques. Pour les variables de phase-2, l'estimateur de l'imputation multiple était généralement sans biais et d'une précision supérieure à celle des estimateurs pondérés classiques et analogue à celle de l'estimateur calibré. Les résultats des simulations réalisées à partir des données de la cohorte NWTS étaient cependant moins bons pour les effets impliquant la variable de phase-2 : les estimateurs de l'imputation multiple étaient légèrement biaisés et moins précis que les estimateurs pondérés. Cela s'explique par la présence de termes d'interaction impliquant la variable de phase-2 dans le modèle d'analyse, d'où la nécessité d'estimer des modèles d'imputation spécifiques à différentes strates de la cohorte incluant parfois trop peu de cas pour que les conditions asymptotiques soient réunies.Nous recommandons d'utiliser l'imputation multiple pour obtenir des estimations plus précises des risques relatifs, tout en s'assurant qu'elles sont analogues à celles fournies par les analyses pondérées. Nos simulations ont également montré que l'imputation multiple fournissait des estimations de la valeur prédictive d'un modèle (C de Harrell) ou d'une variable additionnelle (différence des indices C, NRI ou IDI) analogues à celles fournies par la cohorte complète
27

Système d'Assistance à la Conduite pour Véhicules à Deux-Roues Motorisés

Slimi, Hamid 09 January 2012 (has links) (PDF)
À l'heure actuelle, le deux-roues motorisé (DRM) constitue un moyen de transport de plus en plus convoité, notamment pour les possibilités qu'il offre d'esquiver les engorgements de trafic. Ce constat est justifié par le nombre de DRM circulant quotidiennement et impliquant un trafic de plus en plus croissant. Néanmoins, ce phénomène conduit à l'explosion du nombre d'accidents et par conséquent un grand nombre de victimes classant ainsi, les DRM dans la catégorie des modes de transport particulièrement dangereux et ses utilisateurs dans celle des usagers très vulnérables. A première vue, le développement des aides à la conduite actives pourrait résoudre le problème de contrôlabilité du véhicule mais cette solution n'est plus envisageable dès lors qu'il s'agit de pertes de contrôle irréversibles qui constituent, par ailleurs un pourcentage très important des accidents de DRM en tant que véhicule seul. En effet, ce type de système intervient, alors que le véhicule se trouve déjà dans une situation dégradée. De plus, l'adaptabilité des aides actives sur les véhicules à deux roues motorisés reste problématique. Actuellement, l'accent est mis sur le développement des systèmes de sécurité prévenant le conducteur de DRM suffisamment en amont d'un danger pour éviter la situation conflictuelle, c'est le cas des aides préventives. Ce travail de thèse s'inscrit dans ce cadre et y contribue au niveau de la modélisation, l'identification, l'estimation d'état, l'analyse de la dynamique limite et la mise en place d'une plate-forme expérimentale. Ainsi, plusieurs points ont été traités: * Modélisation du système Véhicule-Infrastructure-Conducteur (V-I-C). * Développement d'observateurs pour l'estimation des variables d'états et des entrées inconnues. * Mise en place d'un modèle vitesse limite, servant de référence pour l'unité d'avertissement, qui tient compte de plusieurs critères (dynamique du véhicule, comportement du conducteur, géométrie de la route). * Identification d'un modèle mathématique propre au véhicule prototype (Scooter). * Mise en place d'une plate-forme expérimentale qui s'articule autour de l'instrumentation d'un scooter par un ensemble de capteurs et centrale d'enregistrement.
28

Estimateurs fonctionnels récursifs et leurs applications à la prévision / Recursive functional estimators with application to nonparametric prediction

Amiri, Aboubacar 06 December 2010 (has links)
Nous nous intéressons dans cette thèse aux méthodes d’estimation non paramétriques par noyaux récursifs ainsi qu’à leurs applications à la prévision. Nous introduisons dans un premier chapitre une famille d’estimateurs récursifs de la densité indexée par un paramètre ℓ ∈ [0, 1]. Leur comportement asymptotique en fonction de ℓ va nous amener à introduire des critères de comparaison basés sur les biais, variance et erreur quadratique asymptotiques. Pour ces critères, nous comparons les estimateurs entre eux et aussi comparons notre famille à l’estimateur non récursif de la densité de Parzen-Rosenblatt. Ensuite, nous définissons à partir de notre famille d’estimateurs de la densité, une famille d’estimateurs récursifs à noyau de la fonction de régression. Nous étudions ses propriétés asymptotiques en fonction du paramètre ℓ. Nous utilisons enfin les résultats obtenus sur l’estimation de la régression pour construire un prédicteur non paramétrique par noyau. Nous obtenons ainsi une famille de prédicteurs non paramétriques qui permettent de réduire considérablement le temps de calcul. Des exemples d’application sont donnés pour valider la performance de nos estimateurs / The aim of this thesis is to study methods of nonparametric estimation based on recursive kernel and their applications to forecasting. We introduce in the first chapter a family of recursive density estimators indexed by a parameter ℓ ∈ [0, 1]. We study their asymptotic behavior according to ℓ, and then we introduce criteria of comparison based on bias, variance and asymptotic quadratic error. For these criteria, we compare our estimators in terms of ℓ, and also compare our family to the non-recursive density estimator of Parzen-Rosenblatt. As for density, we define a family of recursive kernel estimators of regression function. We study its asymptotic properties according to the parameter ℓ. Finally, results of regression estimation are applied to define a family of nonparametric predictors that reduce considerably the computing time and examples of application are given to validate the performance of our methods
29

Estimation récursive dans certains modèles de déformation / Recursive estimation for some deformation models

Fraysse, Philippe 04 July 2013 (has links)
Cette thèse est consacrée à l'étude de certains modèles de déformation semi-paramétriques. Notre objectif est de proposer des méthodes récursives, issues d'algorithmes stochastiques, pour estimer les paramètres de ces modèles. Dans la première partie, on présente les outils théoriques existants qui nous seront utiles dans la deuxième partie. Dans un premier temps, on présente un panorama général sur les méthodes d'approximation stochastique, en se focalisant en particulier sur les algorithmes de Robbins-Monro et de Kiefer-Wolfowitz. Dans un second temps, on présente les méthodes à noyaux pour l'estimation de fonction de densité ou de régression. On s'intéresse plus particulièrement aux deux estimateurs à noyaux les plus courants qui sont l'estimateur de Parzen-Rosenblatt et l'estimateur de Nadaraya-Watson, en présentant les versions récursives de ces deux estimateurs.Dans la seconde partie, on présente tout d'abord une procédure d'estimation récursive semi-paramétrique du paramètre de translation et de la fonction de régression pour le modèle de translation dans la situation où la fonction de lien est périodique. On généralise ensuite ces techniques au modèle vectoriel de déformation à forme commune en estimant les paramètres de moyenne, de translation et d'échelle, ainsi que la fonction de régression. On s'intéresse finalement au modèle de déformation paramétrique de variables aléatoires dans le cadre où la déformation est connue à un paramètre réel près. Pour ces trois modèles, on établit la convergence presque sûre ainsi que la normalité asymptotique des estimateurs paramétriques et non paramétriques proposés. Enfin, on illustre numériquement le comportement de nos estimateurs sur des données simulées et des données réelles. / This thesis is devoted to the study of some semi-parametric deformation models.Our aim is to provide recursive methods, related to stochastic algorithms, in order to estimate the different parameters of the models. In the first part, we present the theoretical tools which we will use in the next part. On the one hand, we focus on stochastic approximation methods, in particular the Robbins-Monro algorithm and the Kiefer-Wolfowitz algorithm. On the other hand, we introduce kernel estimators in order to estimate a probability density function and a regression function. More particularly, we present the two most famous kernel estimators which are the one of Parzen-Rosenblatt and the one of Nadaraya-Watson. We also present their recursive version.In the second part, we present the results we obtained in this thesis.Firstly, we provide a recursive estimation method of the shift parameter and the regression function for the translation model in which the regression function is periodic. Secondly, we extend this estimation procedure to the shape invariant model, providing estimation of the height parameter, the translation parameter and the scale parameter, as well as the common shape function.Thirdly, we are interested in the parametric deformation model of random variables where the deformation is known and depending on an unknown parameter.For these three models, we establish the almost sure convergence and the asymptotic normality of each estimator. Finally, we numerically illustrate the asymptotic behaviour of our estimators on simulated data and on real data.
30

Contribution à la statistique des diffusions. Estimation semiparamétrique et efficacité au second ordre.<br />Agrégation et réduction de dimension pour le modèle de régression.

Dalalyan, Arnak 22 November 2007 (has links) (PDF)
Ce texte constitue une synthèse de mes travaux de recherche menés depuis 2000 en statistique mathématique. Ces travaux s'articulent autour de 4 thèmes: la statistique non paramétrique pour les processus de diffusion, efficacité au second ordre pour l'estimation semiparamétrique, agrégation par des poids exponentiels et réduction de dimension pour la régression non paramétrique. <br />Le premier chapitre contient une description générale des résultats obtenus en les replaçant dans un contexte historique et en présentant les motivations qui nous ont animées pour étudier ces problèmes. J'y décris également de façon informelle les idées clés des démonstrations. <br /><br />Au second chapitre, je présente les définitions principales nécessaires pour énoncer de façon rigoureuse les résultats les plus importants. Ce chapitre contient également une discussion plus formelle permettant de mettre en lumière certains aspects théoriques et pratiques de nos résultats.

Page generated in 0.0578 seconds