Spelling suggestions: "subject:"[STAT:TH] estatistics/estatistics 1heory"" "subject:"[STAT:TH] estatistics/estatistics btheory""
81 |
Une Approche vers la Description et l'Identification d'une Classe de Champs AléatoiresDachian, Serguei 21 January 1999 (has links) (PDF)
Une nouvelle approche de la description des champs aléatoires sur le réseau entier $\nu$-dimensionnel $Z^\nu$ est présentée. Les champs al'eatoires sont décrits en terme de certaines fonctions de sous-ensembles de $Z^\nu$ , à savoir les $P$-fonctions, les $Q$-fonctions, les $H$-fonctions, les $Q$-systèmes, les $H$-systèmes et les systèmes ponctuels. La corrélation avec la description Gibbsienne classique est montrée. Une attention particulière est portée au cas quasilocal. Les champs aléatoires non-Gibbsiens sont aussi considérés. Un procédé général pour construire des champs aléatoires non-Gibbsiens est donné. La solution du problème de Dobrushin concernant la description d'un champ aléatoire par ses distributions conditionnelles ponctuelles est déduite de notre approche. Ensuite, le problème de l'estimation paramétrique pour les champs aléatoires de Gibbs est considéré. Le champ est supposé spécifié en terme d'un système ponctuel local invariant par translation. Un estimateur du système ponctuel est construit comme un rapport de certaines fréquences conditionnelles empiriques. Ses consistances exponentielle et $L^p$ uniformes sont démontrées. Finalement, le problème nonparamétrique de l'estimation d'un système ponctuel quasilocal est considéré. Un estimateur du système ponctuel est construit par la méthode de "sieves". Ses consistances exponentielle et $L^p$ sont prouvées dans des cadres différents. Les résultats sont valides indépendamment de la non-unicité et de la perte de l'invariance par translation.
|
82 |
Fonctions de croyance : décompositions canoniques et règles de combinaison.Pichon, Frédéric 24 March 2009 (has links) (PDF)
Comparé à la théorie des possibilités, le Modèle des Croyances Transférables (MCT) - une interprétation non probabiliste de la théorie de Dempster-Shafer - dispose d'assez peu de choix en terme d'opérateurs d'agrégation pour la fusion d'informations. Dans cette thèse, ce problème de manque de flexibilité pour la combinaison des fonctions de croyance - l'outil mathématique permettant la représentation de l'information dans le MCT - est abordé. Notre première contribution est la mise à jour de familles infinies de règles de combinaison conjonctives et disjonctives, rejoignant ainsi la situation en théorie des possibilités en ce qui concerne les opérateurs de fusion conjonctive et disjonctive. Notre deuxième contribution est un ensemble de résultats rendant intéressante, d'un point de vue applicatif, une famille infinie de règles de combinaison, appelée les alpha-jonctions et introduite initialement de manière purement formelle. Tout d'abord, nous montrons que ces règles correspondent à une connaissance particulière quant à la véracité des sources d'information. Ensuite, nous donnons plusieurs nouveaux moyens simples de calculer la combinaison par une alpha-jonction.
|
83 |
Modélisation de l'apparence de régions pour la segmentation d'images basée modèleChung, François 17 January 2011 (has links) (PDF)
Cette thèse est consacrée à un nouveau modèle d'apparence pour la segmentation d'images basée modèle. Ce modèle, dénommé Multimodal Prior Appearance Model (MPAM), est construit à partir d'une classification EM de profils d'intensité combinée avec une méthode automatique pour déterminer le nombre de classes. Contrairement aux approches classiques basées ACP, les profils d'intensité sont classifiés pour chaque maillage et non pour chaque sommet. Tout d'abord, nous décrivons la construction du MPAM à partir d'un ensemble de maillages et d'images. La classification de profils d'intensité et la détermination du nombre de régions par un nouveau critère de sélection sont expliquées. Une régularisation spatiale pour lisser la classification est présentée et la projection de l'information d'apparence sur un maillage de référence est décrite. Ensuite, nous présentons une classification de type spectrale dont le but est d'optimiser la classification des profils pour la segmentation. La représentation de la similitude entre points de données dans l'espace spectral est expliquée. Des résultats comparatifs sur des profils d'intensité du foie à partir d'images tomodensitométriques montrent que notre approche surpasse les modèles basés ACP. Finalement, nous présentons des méthodes d'analyse pour les structures des membres inférieurs à partir d'images IRM. D'abord, notre technique pour créer des modèles spécifiques aux sujets pour des simulations cinématiques des membres inférieurs est décrite. Puis, la performance de modèles statistiques est comparée dans un contexte de segmentation des os lorsqu'un faible ensemble de données est disponible.
|
84 |
Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingalesCénac, Peggy 15 November 2013 (has links) (PDF)
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
|
85 |
Le nombre de sujets dans les panels d'analyse sensorielle : une approche base de donnéesMammasse, Nadra 22 March 2012 (has links) (PDF)
Le nombre de sujets du panel détermine en grande partie le coût des études descriptives et hédoniques de l'analyse sensorielle. Une fois les risques α et β fixés, ce nombre peut théoriquement être calculé, dés lors que l'on connait la variabilité de la mesure due à l'hétérogénéité de la population visée et que l'on fixe la taille de la différence que l'on désire mettre en évidence. En général, l'ordre de grandeur du premier de ces paramètres est inconnu alors que celui du second est délicat à préciser pour l'expérimentateur. Ce travail propose une documentation systématique des valeurs prises dans la réalité par ces deux paramètres grâce à l'exploitation de deux bases de données, SensoBase et PrefBase, contenant respectivement un millier de jeux de données descriptives et quelques centaines de jeux de données hédoniques. Pratiquement, des recommandations pour la taille de panel sont établies sous forme d'abaques prenant en compte trois niveaux pour chacun des deux risques et des deux paramètres.D'autre part, ce travail étudie le nombre de sujets dans chacun des deux types de panel par une approche de ré-échantillonnage qui consiste à réduire progressivement le nombre de sujets tant que les résultats de l'analyse statistique demeurent stables. En moyenne, la taille des panels descriptifs pourrait être réduite d'un quart du nombre de sujets, mais cette moyenne cache une forte hétérogénéité selon le type de descripteurs considéré. La taille optimale des panels hédoniques serait elle très variable et cette variabilité est induite beaucoup plus par la nature et l'importance des différences entre les produits que par l'hétérogénéité des préférences individuelles. De plus, une même approche de ré-échantillonnage appliquée aux répétitions en tests descriptifs suggère que les répétitions ne sont plus nécessaires en phase de mesure, c'est-à-dire une fois le panel entraîné
|
86 |
Modélisation probabiliste et inférence par l'algorithme Belief PropagationMartin, Victorin 23 May 2013 (has links) (PDF)
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques.
|
87 |
Sur quelques problèmes non-supervisés impliquant des séries temporelles hautement dèpendantesKhaleghi, Azadeh 18 November 2013 (has links) (PDF)
Cette thèse est consacrée à l'analyse théorique de problèmes non supervisés impliquant des séries temporelles hautement dépendantes. Plus particulièrement, nous abordons les deux problèmes fondamentaux que sont le problème d'estimation des points de rupture et le partitionnement de séries temporelles. Ces problèmes sont abordés dans un cadre extrêmement général oùles données sont générées par des processus stochastiques ergodiques stationnaires. Il s'agit de l'une des hypothèses les plus faibles en statistiques, comprenant non seulement, les hypothèses de modèles et les hypothèses paramétriques habituelles dans la littérature scientifique, mais aussi des hypothèses classiques d'indépendance, de contraintes sur l'espace mémoire ou encore des hypothèses de mélange. En particulier, aucune restriction n'est faite sur la forme ou la nature des dépendances, de telles sortes que les échantillons peuvent être arbitrairement dépendants. Pour chaque problème abordé, nous proposons de nouvelles méthodes non paramétriques et nous prouvons de plus qu'elles sont, dans ce cadre, asymptotiquement consistantes. Pour l'estimation de points de rupture, la consistance asymptotique se rapporte à la capacité de l'algorithme à produire des estimations des points de rupture qui sont asymptotiquement arbitrairement proches des vrais points de rupture. D'autre part, un algorithme de partitionnement est asymptotiquement consistant si le partitionnement qu'il produit, restreint à chaque lot de séquences, coïncides, à partir d'un certain temps et de manière consistante, avec le partitionnement cible. Nous montrons que les algorithmes proposés sont implémentables efficacement, et nous accompagnons nos résultats théoriques par des évaluations expérimentales. L'analyse statistique dans le cadre stationnaire ergodique est extrêmement difficile. De manière générale, il est prouvé que les vitesses de convergence sont impossibles à obtenir. Dès lors, pour deux échantillons générés indépendamment par des processus ergodiques stationnaires, il est prouvé qu'il est impossible de distinguer le cas où les échantillons sont générés par le même processus de celui où ils sont générés par des processus différents. Ceci implique que des problèmes tels le partitionnement de séries temporelles sans la connaissance du nombre de partitions ou du nombre de points de rupture ne peut admettre de solutions consistantes. En conséquence, une tâche difficile est de découvrir les formulations du problème qui en permettent une résolution dans ce cadre général. La principale contribution de cette thèse est de démontrer (par construction) que malgré ces résultats d'impossibilités théoriques, des formulations naturelles des problèmes considérés existent et admettent des solutions consistantes dans ce cadre général. Ceci inclut la démonstration du fait que le nombre de points de rupture corrects peut être trouvé, sans recourir à des hypothèses plus fortes sur les processus stochastiques. Il en résulte que, dans cette formulation, le problème des points de rupture peut être réduit à du partitionnement de séries temporelles. Les résultats présentés dans ce travail formulent les fondations théoriques pour l'analyse des données séquentielles dans un espace d'applications bien plus large.
|
88 |
Approximations of Points: Combinatorics and AlgorithmsMustafa, Nabil 19 December 2013 (has links) (PDF)
At the core of successful manipulation and computation over large geometric data is the notion of approximation, both structural and computational. The focus of this thesis will be on the combinatorial and algorithmic aspects of approximations of point-set data P in d-dimensional Euclidean space. It starts with a study of geometric data depth where the goal is to compute a point which is the 'combinatorial center' of P. Over the past 50 years several such measures of combinatorial centers have been proposed, and we will re-examine several of them: Tukey depth, Simplicial depth, Oja depth and Ray-Shooting depth. This can be generalized to approximations with a subset, leading to the notion of epsilon-nets. There we will study the problem of approximations with respect to convexity. Along the way, this requires re-visiting and generalizing some basic theorems of convex geometry, such as the Caratheodory's theorem. Finally we will turn to the algorithmic aspects of these problems. We present a polynomial-time approximation scheme for computing hitting-sets for disks in the plane. Of separate interest is the technique, an analysis of local-search via locality graphs. A further application of this technique is then presented in computing independent sets in intersection graphs of rectangles in the plane.
|
89 |
Modélisation et détection statistiques pour la criminalistique numérique des imagesThai, Thanh Hai 28 August 2014 (has links) (PDF)
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d'images se sont démocratisés et permettent aujourd'hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu'il s'agit de savoir si ce que l'on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et roposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La éthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les aramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les erformances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée.
|
90 |
Analyse de sensibilité et réduction de dimension. Application à l'océanographieJanon, Alexandre 15 November 2012 (has links) (PDF)
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.
|
Page generated in 0.0773 seconds