• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 66
  • 17
  • Tagged with
  • 215
  • 137
  • 87
  • 50
  • 48
  • 42
  • 42
  • 40
  • 33
  • 30
  • 29
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Détection et poursuite en contexte Track-Before-Detect par filtrage particulaire / Detection and tracking in Track-Before-Detect context with particle filter

Lepoutre, Alexandre 05 October 2016 (has links)
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements. / This thesis deals with the study and the development of mono and multitarget tracking methods in a Track-Before-Detect (TBD) context with particle filters. Contrary to the classic approach that performs before the tracking stage a pre-detection and extraction step, the TBD approach directly works on raw data in order to jointly perform detection and tracking. Several solutions to this problem exist, however this thesis is restricted to the particular Hidden Markov Models considered in the Bayesian framework for which the TBD problem can be solved using particle filter approximations.Initially, we consider existing monotarget particle solutions and we propose several instrumental densities that allow to improve the performance both in detection and in estimation. Then, we propose an alternative approach of the monotarget TBD problem based on the target appearance and disappearance times. This new approach, in particular, allows to gain in terms of computational resources. Secondly, we investigate the calculation of the measurement likelihood in a TBD context -- necessary for the derivation of the particle filters -- that is difficult due to the presence of the target amplitude parameters that are unknown and fluctuate over time. In particular, we extend the work of Rutten et al. for the likelihood calculation to several Swerling models and to the multitarget case. Lastly, we consider the multitarget TBD problem. By taking advantage of the specific structure of the likelihood when targets are far apart from each other, we show that it is possible to develop a particle solution that considers only a particle filter per target. Moreover, we develop a whole multitarget TBD solution able to manage the target appearances and disappearances and also the crossing between targets.
32

Inférence des interactions entre processus évolutifs / Inference of the interactions between evolutionary processes

Behdenna, Abdelkader 14 March 2016 (has links)
Au cours de cette thèse, nous avons développé un outil pour détecter la coévolution, c'est à dire l'évolution conjointe de différentes entités biologiques (nucléotides, acides aminés, fonctions biologiques), à différentes échelles (moléculaire, organe). Cet outil s'applique sur des arbres phylogénétiques sur lesquels des évènements évolutifs (mutations, gains/pertes de fonctions biologiques) sont placés. Nous nous plaçons dans un cadre abstrait dans le but de travailler sur les processus conduisant à l'apparition d'évènements évolutifs au sens large le long des lignées d'un arbre phylogénétique. Cet outil est constitué de deux parties distinctes, chacune ayant ses propres spécificités.D'une part, nous avons produit une première méthode simple, très efficace, permettant de détecter parmi un très grand nombre de tels processus, quelles paires d'évènements semblent apparaître de manière conjointe dans l'arbre. Grâce à un formalisme mathématique utilisant les propriétés de l'algèbre bilinéaire, des calculs exacts d'espérance, de variance et même de distributions de probabilités sont possibles et permettent d'associer à ces paires détectées des p-values exactes, rendant cette méthode très précise.D'autre part, nous avons développé un modèle de coévolution entre de tels processus évolutifs. Ce modèle mathématique limite considérablement le nombre de paramètres utilisés et nous a permis de calculer et d'optimiser une fonction de vraisemblance. Cette optimisation revient à rechercher les paramètres du modèles expliquant au mieux les données contemporaines observées, et nous permet ainsi, toujours selon notre modèle, d'établir le scénario le plus probable ayant mené aux données observées.Cette seconde méthode est plus gourmande en temps de calcul, ce qui invite à associer les deux méthodes dans un pipeline nous permettant de traiter efficacement un grand nombre de paires avant d'aller plus loin dans notre étude et tester les paires les plus encourageantes à l'aide de notre modèle mathématique, dans le but de décrire un scénario interprétable dans un contexte biologique. Nous avons testé cet outil à l'aide de simulations, avant de l'appliquer à deux exemples biologiques très différents : le lien entre intracellularité et perte de flagelle chez Escherichia coli, et l'étude de toutes les paires de nucléotides dans des séquences d'ARNr 16S d’un échantillon de gamma-entérobactéries. / In this thesis, we have developed a tool to detect co-evolution, ie the joined evolution of different biological entities (nucleotides, amino acids, organic functions), on different scales (molecular, organ). This tool is applied to phylogenetic trees on which evolutionary events (mutations, gain / loss of biological functions) are placed. We consider an abstract framework in order to work on the processes leading to the emergence of evolutionary events along the lineages of a phylogenetic tree. This tool consists of two separate parts, each with its own specificities.On the one hand, we have produced a first simple, highly effective method to detect from a very large number of such processes, which pairs events seem to appear jointly in the tree. Using a mathematical formalism using the properties of the bilinear algebra, exact calculations of expectancy, variance and even probability distributions are possible and allow to associate exact p-values to these pairs, making this method very precise.On the other hand, we have developed a model of coevolution between such evolutionary processes. This mathematical model severely limits the number of parameters used and allows us to calculate and maximize a likelihood function. This optimization is similar to searching the parameters of a model explaining the best the observed contemporary data, and allows us as well, according to our model, to determine the most likely scenario that led to the observed data.This second method requires more computing time, which invites to combine the two methods in a pipeline allowing us to efficiently process a large number of pairs before proceeding further in our study and test the most promising pairs using our mathematical model in order to describe a scenario interpreted in a biological context. We have tested this tool by using simulations, before applying it to two very different biological examples: the link between intracellularity and loss of flagellum in Escherichia coli, and the study of all the pairs of nucleotides in sequences 16S rRNA of a sample of gamma-Enterobacteria.
33

Statistical modeling of protein sequences beyond structural prediction : high dimensional inference with correlated data / Modélisation statistique des séquences de protéines au-delà de la prédiction structurelle : inférence en haute dimension avec des données corrélées

Coucke, Alice 10 October 2016 (has links)
Grâce aux progrès des techniques de séquençage, les bases de données génomiques ont connu une croissance exponentielle depuis la fin des années 1990. Un grand nombre d'outils statistiques ont été développés à l'interface entre bioinformatique, apprentissage automatique et physique statistique, dans le but d'extraire de l'information de ce déluge de données. Plusieurs approches de physique statistique ont été récemment introduites dans le contexte précis de la modélisation de séquences de protéines, dont l'analyse en couplages directs. Cette méthode d'inférence statistique globale fondée sur le principe d'entropie maximale, s'est récemment montrée d'une efficacité redoutable pour prédire la structure tridimensionnelle de protéines, à partir de considérations purement statistiques.Dans cette thèse, nous présentons les méthodes d'inférence en question, et encouragés par leur succès, explorons d'autres domaines complexes dans lesquels elles pourraient être appliquées, comme la détection d'homologies. Contrairement à la prédiction des contacts entre résidus qui se limite à une information topologique sur le réseau d'interactions, ces nouveaux champs d'application exigent des considérations énergétiques globales et donc un modèle plus quantitatif et détaillé. À travers une étude approfondie sur des donnéesartificielles et biologiques, nous proposons une meilleure interpretation des paramètres centraux de ces méthodes d'inférence, jusqu'ici mal compris, notamment dans le cas d'un échantillonnage limité. Enfin, nous présentons une nouvelle procédure plus précise d'inférence de modèles génératifs, qui mène à des avancées importantes pour des données réelles en quantité limitée. / Over the last decades, genomic databases have grown exponentially in size thanks to the constant progress of modern DNA sequencing. A large variety of statistical tools have been developed, at the interface between bioinformatics, machine learning, and statistical physics, to extract information from these ever increasing datasets. In the specific context of protein sequence data, several approaches have been recently introduced by statistical physicists, such as direct-coupling analysis, a global statistical inference method based on the maximum-entropy principle, that has proven to be extremely effective in predicting the three-dimensional structure of proteins from purely statistical considerations.In this dissertation, we review the relevant inference methods and, encouraged by their success, discuss their extension to other challenging fields, such as sequence folding prediction and homology detection. Contrary to residue-residue contact prediction, which relies on an intrinsically topological information about the network of interactions, these fields require global energetic considerations and therefore a more quantitative and detailed model. Through an extensive study on both artificial and biological data, we provide a better interpretation of the central inferred parameters, up to now poorly understood, especially in the limited sampling regime. Finally, we present a new and more precise procedure for the inference of generative models, which leads to further improvements on real, finitely sampled data.
34

Utilisation des Divergences entre Mesures en Statistique Inférentielle

Keziou, Amor 17 November 2003 (has links) (PDF)
Dans cette thèse, nous proposons de nouvelles méthodes d'estimation et de test par optimisation des Divergences entre mesures pour des modèles paramétriques discrets ou continus, pour des modèles à rapport de densités semi-paramétriques et pour des modèles non paramétriques restreints par des contraintes linéaires. Les méthodes proposées sont basées sur une nouvelle représentation des Divergences entre mesures. Nous montrons que les méthodes du maximum de vraisemblance paramétrique et du maximum de vraisemblance empirique sont des cas particuliers correspondant au choix de la Divergence de Kullback-Leibler modifiée, et que le choix d'autres types de Divergences mène à des estimateurs ayant des propriétés similaires voire meilleurs dans certains cas. De nombreuses perspectives concernant le problème du choix de la Divergence sont notées.
35

Lois bayésiennes a priori dans un plan binomial séquentiel

Bunouf, Pierre 01 March 2006 (has links) (PDF)
La reformulation du théorème de Bayes par R. de Cristofaro permet d'intégrer l'information sur le plan expérimental dans la loi a priori. En acceptant de transgresser les principes de vraisemblance et de la règle d'arrêt, un nouveau cadre théorique permet d'aborder le problème de la séquentialité dans l'inférence bayésienne. En considérant que l'information sur le plan expérimental est contenue dans l'information de Fisher, on dérive une famille de lois a priori à partir d'une vraisemblance directement associée à l'échantillonnage. Le cas de l'évaluation d'une proportion dans le contexte d'échantillonnages Binomiaux successifs conduit à considérer la loi Bêta-J. L'étude sur plusieurs plans séquentiels permet d'établir que l'"a priori de Jeffreys corrigé" compense le biais induit sur la proportion observée. Une application dans l'estimation ponctuelle montre le lien entre le paramétrage des lois Bêta-J et Bêta dans l'échantillonnage fixe. La moyenne et le mode des lois a posteriori obtenues présentent des propriétés fréquentistes remarquables. De même, l'intervalle de Jeffreys corrigé montre un taux de recouvrement optimal car la correction vient compenser l'effet de la règle d'arrêt sur les bornes. Enfin, une procédure de test, dont les erreurs s'interprètent à la fois en terme de probabilité bayésienne de l'hypothèse et de risques fréquentistes, est construite avec une règle d'arrêt et de rejet de H0 fondée sur une valeur limite du facteur de Bayes. On montre comment l'a priori de Jeffreys corrigé compense le rapport des évidences et garantit l'unicité des solutions, y compris lorsque l'hypothèse nulle est composite.
36

Détection des ruptures dans les processus causaux: Application aux débits du bassin versant de la Sanaga au Cameroun

Kengne, William Charky 03 May 2012 (has links) (PDF)
Cette thèse porte sur la détection de rupture dans les processus causaux avec application aux débits du bassin versant de la Sanaga. Nous considérons une classe semi-paramétrique de modèles causaux contenant des processus classique tel que l'AR, ARCH, TARCH. Le chapitre 1 est une synthèse des travaux. Il présente le modèle avec des exemples et donne les principaux résultats obtenus aux chapitres 2, 3,4. Le chapitre 2 porte sur la détection off-line de ruptures multiples en utilisant un critère de vraisemblance pénalisée. Le nombre de rupture, les instants de rupture et les paramètres du modèle sur chaque segment sont inconnus. Ils sont estimés par maximisation d'un contraste construit à partir des quasi-vraisemblances et pénalisées par le nombre de ruptures. Nous donnons les choix possibles du paramètre de pénalité et montrons que les estimateurs des paramètres du modèle sont consistants avec des vitesses optimales. Pour des applications pratiques, un estimateur adaptatif du paramètre de pénalité basé sur l'heuristique de la pente est proposé. La programmation dynamique est utilisée pour réduire le coût numérique des opérations, celui-ci est désormais de l'ordre de $\mathcal{O}(n^2)$. Des comparaisons faites avec des résultats existants montrent que notre procédure est plus stable et plus robuste. Le chapitre 3 porte toujours sur la détection off-line de ruptures multiples, mais cette fois en utilisant une procédure de test. Nous avons construit une nouvelle procédure qui, combinée avec un algorithme de type ICSS (Itereted Cumulative Sums of Squares) permet de détecter des ruptures multiples dans des processus causaux. Le test est consistant en puissance et la comparaison avec des procédures existantes montre qu'il est plus puissant. Le chapitre 4 étudie la détection des ruptures on-line dans la classe de modèle considéré aux chapitres 2 et 3. Une procédure basée sur la quasi-vraisemblance des observations a été développée. La procédure est consistante en puissance et le délai de détection est meilleur que celui des procédures existantes. Le chapitre 5 est consacré aux applications aux débits du bassin versant de la Sanaga, les procédures décrites aux chapitres 2 et 3 ont été utilisées en appliquant un modèle ARMA sur les données désaisonnalisées et standardisées. Ces deux procédures ont détecté des ruptures qui sont "proches".
37

Estimation paramétriques et tests d'hypothèses pour des modèles avec plusieurs ruptures d'un processus de poisson / Parametric estimation and hypothesis testing for models with multiple change-point of poisson process

Top, Alioune 20 June 2016 (has links)
Ce travail est consacré aux problèmes d’estimation paramétriques, aux tests d’hypothèses et aux tests d’ajustement pour les processus de Poisson non homogènes.Tout d’abord on a étudié deux modèles ayant chacun deux sauts localisés par un paramètre inconnu. Pour le premier modèle la somme des sauts est positive. Tandis que le second a un changement de régime et constant par morceaux. La somme de ses deux sauts est nulle. Ainsi pour chacun de ces modèles nous avons étudié les propriétés asymptotiques de l’estimateur bayésien (EB) et celui du maximum de vraisemblance(EMV). Nous avons montré la consistance, la convergence en distribution et la convergence des moments. En particulier l’estimateur bayésien est asymptotiquement efficace. Pour le second modèle nous avons aussi considéré le test d’une hypothèse simple contre une alternative unilatérale et nous avons décrit les propriétés asymptotiques (choix du seuil et puissance ) du test de Wald (WT)et du test du rapport de vraisemblance généralisé (GRLT).Les démonstrations sont basées sur la méthode d’Ibragimov et Khasminskii. Cette dernière repose sur la convergence faible du rapport de vraisemblance normalisé dans l’espace de Skorohod sous certains critères de tension des familles demesure correspondantes.Par des simulations numériques, les variances limites nous ont permis de conclure que l’EB est meilleur que celui du EMV. Lorsque la somme des sauts est nulle, nous avons développé une approche numérique pour le EMV.Ensuite on a considéré le problème de construction d’un test d’ajustement pour un modèle avec un paramètre d’échelle. On a montré que dans ce cas, le test de Cramer-von Mises est asymptotiquement ”parameter-free” et est consistent. / This work is devoted to the parametric estimation, hypothesis testing and goodnessof-fit test problems for non homogenous Poisson processes. First we consider two models having two jumps located by an unknown parameter.For the first model the sum of jumps is positive. The second is a model of switching intensity, piecewise constant and the sum of jumps is zero. Thus, for each model, we studied the asymptotic properties of the Bayesian estimator (BE) andthe likelihood estimator (MLE). The consistency, the convergence in distribution and the convergence of moments are shown. In particular we show that the BE is asymptotically efficient. For the second model we also consider the problem of asimple hypothesis testing against a one- sided alternative. The asymptotic properties (choice of the threshold and power) of Wald test (WT) and the generalized likelihood ratio test (GRLT) are described.For the proofs we use the method of Ibragimov and Khasminskii. This method is based on the weak convergence of the normalized likelihood ratio in the Skorohod space under some tightness criterion of the corresponding families of measure.By numerical simulations, the limiting variances of estimators allows us to conclude that the BE outperforms the MLE. In the situation where the sum of jumps is zero, we developed a numerical approach to obtain the MLE.Then we consider the problem of construction of goodness-of-test for a model with scale parameter. We show that the Cram´er-von Mises type test is asymptotically parameter-free. It is also consistent.
38

Essais empiriques sur l'existence d'interactions horizontales en termes de dépenses publiques

Fréret, Sandy 08 December 2008 (has links) (PDF)
Cette thèse étend l'examen des interactions horizontales aux dépenses publiques. La littérature existante réduit, en effet, l'espace des instruments stratégiques des entités locales au seul taux de taxe. Après examen du processus de décentralisation et des compétences afférentes à chaque échelon de collectivités territoriales, l'analyse retient les dépenses publiques d'action sociale des départements français sur la période 1992 à 2005. Les résultats économétriques confirment la présence d'interactions horizontales qui persistent sur données de panel, cadre minimisant les biais de variables omises présents en coupe transversale (via l'introduction d'effets fixes individuels et temporels). Ces interactions apparaissent au travers d'un comportement mimétique des départements sur leurs dépenses d'action sociale (en coupe transversale et sur données de panel l'élasticité est respectivement égale à 0,35 et 0,11). L'extension de l'estimation par le maximum de vraisemblance au cas des panels spatiaux permet enfin de tester l'existence d'une concurrence politique par comparaison. La théorie prédit une diminution de l'ampleur des interactions horizontales lorsque le décideur local fait face à un contexte politique " favorable ". L'examen empirique valide également l'existence de telles interactions basées sur des considérations électorales avec des coefficients d'interaction qui diffèrent significativement selon le contexte politique.
39

Estimation et test dans les modèles paramétriques de processus stationnaires

Pham Dinh, Tuan 27 January 1975 (has links) (PDF)
.
40

Common factors in stochastic volatility of asset returns and new developments of the generalized method of moments

Dovonon, Prosper January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0355 seconds