• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 42
  • 9
  • Tagged with
  • 130
  • 130
  • 58
  • 39
  • 32
  • 31
  • 24
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 19
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Essais empiriques sur l'existence d'interactions horizontales en termes de dépenses publiques

Fréret, Sandy 08 December 2008 (has links) (PDF)
Cette thèse étend l'examen des interactions horizontales aux dépenses publiques. La littérature existante réduit, en effet, l'espace des instruments stratégiques des entités locales au seul taux de taxe. Après examen du processus de décentralisation et des compétences afférentes à chaque échelon de collectivités territoriales, l'analyse retient les dépenses publiques d'action sociale des départements français sur la période 1992 à 2005. Les résultats économétriques confirment la présence d'interactions horizontales qui persistent sur données de panel, cadre minimisant les biais de variables omises présents en coupe transversale (via l'introduction d'effets fixes individuels et temporels). Ces interactions apparaissent au travers d'un comportement mimétique des départements sur leurs dépenses d'action sociale (en coupe transversale et sur données de panel l'élasticité est respectivement égale à 0,35 et 0,11). L'extension de l'estimation par le maximum de vraisemblance au cas des panels spatiaux permet enfin de tester l'existence d'une concurrence politique par comparaison. La théorie prédit une diminution de l'ampleur des interactions horizontales lorsque le décideur local fait face à un contexte politique " favorable ". L'examen empirique valide également l'existence de telles interactions basées sur des considérations électorales avec des coefficients d'interaction qui diffèrent significativement selon le contexte politique.
12

Estimation et test dans les modèles paramétriques de processus stationnaires

Pham Dinh, Tuan 27 January 1975 (has links) (PDF)
.
13

Processus de Poisson généralisé autorégressif d'ordre 1

Najem, El-Halla January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
14

Estimation de la moyenne et de la variance de l’abondance de populations en écologie à partir d’échantillons de petite taille / Estimating mean and variance of populations abundance in ecology with small-sized samples

Vaudor, Lise 25 January 2011 (has links)
En écologie comme dans bien d’autres domaines, les échantillons de données de comptage comprennent souvent de nombreux zéros et quelques abondances fortes. Leur distribution est particulièrement surdispersée et asymétrique. Les méthodes les plus classiques d’inférence sont souvent mal adaptées à ces distributions, à moins de disposer d’échantillons de très grande taille. Il est donc nécessaire de s’interroger sur la validité des méthodes d’inférence, et de quantifier les erreurs d’estimation pour de telles données. Ce travail de thèse a ainsi été motivé par un jeu de données d’abondance de poissons, correspondant à un échantillonnage ponctuel par pêche électrique. Ce jeu de données comprend plus de 2000 échantillons, dont chacun correspond aux abondances ponctuelles (considérées indépendantes et identiquement distribuées) d’une espèce pour une campagne de pêche donnée. Ces échantillons sont de petite taille (en général, 20 _ n _ 50) et comprennent de nombreux zéros (en tout, 80% de zéros). Les ajustements de plusieurs modèles de distribution classiques pour les données de comptage ont été comparés sur ces échantillons, et la distribution binomiale négative a été sélectionnée. Nous nous sommes donc intéressés à l’estimation des deux paramètres de cette distribution : le paramètre de moyenne m, et le paramètre de dispersion, q. Dans un premier temps, nous avons étudié les problèmes d’estimation de la dispersion. L’erreur d’estimation est d’autant plus importante que le nombre d’individus observés est faible, et l’on peut, pour une population donnée, quantifier le gain en précision résultant de l’exclusion d’échantillons comprenant très peu d’individus. Nous avons ensuite comparé plusieurs méthodes de calcul d’intervalles de confiance pour la moyenne. Les intervalles de confiance basés sur la vraisemblance du modèle binomial négatif sont, de loin, préférables à des méthodes plus classiques comme la méthode de Student. Par ailleurs, ces deux études ont révélé que certains problèmes d’estimation étaient prévisibles, à travers l’observation de statistiques simples des échantillons comme le nombre total d’individus, ou le nombre de comptages non-nuls. En conséquence, nous avons comparé la méthode d’échantillonnage à taille fixe, à une méthode séquentielle, où l’on échantillonne jusqu’à observer un nombre minimum d’individus ou un nombre minimum de comptages non-nuls. Nous avons ainsi montré que l’échantillonnage séquentiel améliore l’estimation du paramètre de dispersion mais induit un biais dans l’estimation de la moyenne ; néanmoins, il représente une amélioration des intervalles de confiance estimés pour la moyenne. Ainsi, ce travail quantifie les erreurs d’estimation de la moyenne et de la dispersion dans le cas de données de comptage surdispersées, compare certaines méthodes d’estimations, et aboutit à des recommandations pratiques en termes de méthodes d’échantillonnage et d’estimation. / In ecology as well as in other scientific areas, count samples often comprise many zeros, and few high abundances. Their distribution is particularly overdispersed, and skewed. The most classical methods of inference are often ill-adapted to these distributions, unless sample size is really large. It is thus necessary to question the validity of inference methods, and to quantify estimation errors for such data. This work has been motivated by a fish abundance dataset, corresponding to punctual sampling by electrofishing. This dataset comprises more than 2000 samples : each sample corresponds to punctual abundances (considered to be independent and identically distributed) for one species and one fishing campaign. These samples are small-sized (generally, 20 _ n _ 50) and comprise many zeros (overall, 80% of counts are zeros). The fits of various classical distribution models were compared on these samples, and the negative binomial distribution was selected. Consequently, we dealt with the estimation of the parameters of this distribution : the parameter of mean m and parameter of dispersion q. First, we studied estimation problems for the dispersion. The estimation error is higher when few individuals are observed, and the gain in precision for a population, resulting from the exclusion of samples comprising very few individuals, can be quantified. We then compared several methods of interval estimation for the mean. Confidence intervals based on negative binomial likelihood are, by far, preferable to more classical ones such as Student’s method. Besides, both studies showed that some estimation problems are predictable through simple statistics such as total number of individuals or number of non-null counts. Accordingly, we compared the fixed sample size sampling method, to a sequential method, where sampling goes on until a minimum number of individuals or positive counts have been observed. We showed that sequential sampling improves the estimation of dispersion but causes the estimation of mean to be biased ; still, it improves the estimation of confidence intervals for the mean. Hence, this work quantifies errors in the estimation of mean and dispersion in the case of overdispersed count data, compares various estimation methods, and leads to practical recommendations as for sampling and estimation methods.
15

Imagerie à courants de Foucault pour l'évaluation non-destructive de structures rivetées aéronautiques

Le Diraison, Yohan 27 November 2008 (has links) (PDF)
Les travaux de thèse présentés dans ce mémoire ont permis le développement d'imageurs à courants de Foucault (ICF) intégrés et innovateurs utilisant un procédé magnéto-optique pour la mesure directe haute résolution de champ magnétique. Les ICF sont destinés à l'évaluation non-destructive des joints rivetés sur des structures aéronautiques et permettront la caractérisation avancée de ces structures. Les images fournies par l'ICF de laboratoire utilisé durant cette thèse et appliqué à l'inspection de rivets fissurés présentent des informations utiles pour la caractérisation des rivets. Ces images nécessitent des traitements par des algorithmes d'amélioration de la visualisation des fissures afin de mener à bien ces caractérisations. Ces algorithmes basés sur des analyses en composantes principales (ACP) ont été développés et leurs performances quantifiées. A partir de ces données traitées, des processus de caractérisation de rivets, c'est à dire la détection de fissures et leur classification en termes de longueur et profondeur, ont été proposés. Ces traitements donnent de bons résultats et permettent de localiser assez précisément des fissures enfouies dans les plaques de métal rivetées. Cette étude est particulièrement encourageante car elle permettra par la suite d'appliquer des algorithmes d'inversion afin de reconstruire les défauts détectés.
16

Estimation et détection d'un signal contaminé par un bruit autorégressif

Ezzahar, Abdessamad 31 October 1991 (has links) (PDF)
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
17

Séparation aveugle d'un mélange instantané de sources autorégressives par la méthode du vraisemblance exact

Zaidi, Abdelhamid 14 December 2000 (has links) (PDF)
Cette thèse est consacrée à l'étude du problème de la séparation aveugle d'un mélange instantané de sources gaussiennes autorégressives, sans bruit additif, par la méthode du maximum de vraisemblance exact. La maximisation de la vraisemblance est décomposée, par relaxation, en deux sous-problèmes d'optimisation, également traités par des techniques de relaxation. Le premier consiste en l'estimation de la matrice de séparation à structure autorègressive des sources fixée. Le second est d'estimer cette structure lorsque la matrice de séparation est fixée. Le premier problème est équivalent à la maximisation du déterminant de la matrice de séparation sous contraintes non linéaires. Nous donnons un algorithme de calcul de la solution de ce problème pour lequel nous précisons les conditions de convergence. Nous montrons l'existence de l'estimateur du maximum de vraisemblance dont nous prouvons la consistance. Nous déterminons également la matrice d'information de Fisher relative au paramètre global et nous proposons un indice pour mesurer les performances des méthodes de séparation. Puis nous analysons, par simulation, les performances de l'estimateur ainsi défini et nous montrons l'amélioration qu'il apporte à la procédure de quasi-maximum de vraisemblance ainsi qu'aux autres méthodes du second ordre.
18

Modélisation conjointe de données longitudinales et de durées de vie

Dupuy, Jean-François 19 November 2002 (has links) (PDF)
Le modèle de régression semiparamétrique de Cox est l'un des plus utilisés pour l'analyse statistique des durées de vie issues du domaine médical ou de la fiabilité. Ses paramètres sont un paramètre de régression et une fonction de risque de base positive et inconnue. L'inférence statistique pour ce modèle, basée sur la vraisemblance partielle de Cox, est souvent compliquée par la présence de données manquantes des covariables. Dans cette thèse, nous proposons une méthode d'estimation des paramètres du modèle de Cox adaptée à cette situation, et nous étudions les propriétés asymptotiques des estimateurs obtenus. La méthode proposée consiste à modéliser conjointement les durées censurées et le processus de covariable afin d'en déduire, par intégration sur les valeurs manquantes de cette covariable, une vraisemblance conjointe permettant d'estimer les paramètres du modèle de Cox au vu des données incomplètes. Dans un premier temps, nous proposons et formalisons un modèle conjoint pour les durées de vie et la covariable longitudinale. Ce modèle est construit à partir du modèle de Cox et d'un modèle de covariable choisi comme étant une fonction en escalier. Nous établissons ensuite l'identifiabilité de ce modèle sous des conditions de régularité peu contraignantes. Puis, nous adaptons au modèle conjoint la méthode du maximum de vraisemblance semiparamétrique. Nous montrons l'existence d'estimateurs semiparamétriques de ses paramètres, et en particulier de ses paramètres d'intérêt, qui sont les paramètres du modèle de Cox. L'expression compliquée de la vraisemblance conjointe ne permet pas d'obtenir analytiquement ces estimateurs. Nous mettons alors en oeuvre l'estimation à l'aide d'un algorithme EM. Nous montrons ensuite la consistance et la normalité asymptotique de nos estimateurs. Puis, nous proposons un estimateur consistant de leur variance asymptotique. Dans une dernière partie, nous appliquons la méthode proposée sur un jeu de données réelles, et nous comparons nos résultats avec deux autres méthodes d'estimation du modèle de Cox avec covariable manquante proposées dans la littérature.
19

Interprétation et amélioration d'une procédure de démodulation itérative

Naja, Ziad 01 April 2011 (has links) (PDF)
La géométrie de l'information est la théorie mathématique qui applique les méthodes de la géométrie différentielle dans le domaine des statistiques et de la théorie de l'information. C'est une technique très prometteuse pour l'analyse et l'illustration des algorithmes itératifs utilisés en communications numériques. Cette thèse porte sur l'application de cette technique ainsi que d'autre technique d'optimisation bien connue, l'algorithme itératif du point proximal, sur les algorithmes itératifs en général. Nous avons ainsi trouvé des interprétations géométriques (basée sur la géométrie de l'information) et proximales (basée sur l'algorithme du point proximal)intéressantes dans le cas d'un algorithme itératif de calcul de la capacité des canaux discrets sans mémoire, l'algorithme de Blahut-Arimoto. L'idée étant d'étendre cette application sur une classe d'algorithmes itératifs plus complexes. Nous avons ainsi choisi d'analyser l'algorithme de décodage itératif des modulations codées à bits entrelacés afin de trouver quelques interprétations et essayer de proposer des liens existant avec le critère optimal de maximum de vraisemblance et d'autres algorithmes bien connus dans le but d'apporter certaines améliorations par rapport au cas classique de cet algorithme, en particulier l'étude de la convergence.Mots-clefs : Géométrie de l'information, algorithme du point proximal, algorithme de Blahut-Arimoto, décodage itératif, Modulations codées à bits entrelacés, maximum de vraisemblance.
20

Étude de la désintégration B+ --> K_S pi^+pi^0 avec le détecteur BABAR à SLAC

Prendki, Jennifer 08 October 2009 (has links) (PDF)
Les désintégrations B+- -> KSpi+pi0 ont été extraites des données enregistrées par le détecteur BABAR auprès de l'accélérateur PEP2 du SLAC et mesurées en mettant en œuvre une analyse en amplitude (analyse de Dalitz). La désintégration recherchée fait partie d une classe de processus susceptibles de mettre en évidence une physique au-delà du modèle standard et du formalisme de Cabibbo, Kobayashi et Maskawa. L'originalité de ce travail réside dans la mise au point d un algorithme d'ajustement des événements utilisant la méthode du maximum de vraisemblance étendue applicable sur un lot non discrétisé. Des outils statistiques et de mathématique appliquée originaux ont été développés pour gérer le faible rapport signal sur bruit d'un canal avec un pi0 dans l état final et auquel une désintégration charmée contribue sans aucun facteur d interdiction. Faute de statistique, la méthode n'atteint pas la sensibilité requise pour tester le modèle standard en mesurant les phases fondamentales. Elle permet par contre de préciser les rapports d embranchement et les asymétries de CP directes des canaux qui contribuent à la désintégration étudiée.

Page generated in 0.0973 seconds