• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 8
  • 8
  • 5
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation bayésienne empirique pour les plans d'expérience non équilibrés

El-Habti, Ahmed 06 1900 (has links) (PDF)
Dans notre travail de mémoire, nous présentons l'approche bayésienne empirique dans l'inférence statistique. Les premiers articles dans ce domaine ont été publiés par Rabbins (1951, 1955, 1980). Robbins a utilisé une méthode non paramétrique (Maritz et Lwin (1989)) pour estimer la densité marginale. Plus tard, Morris (1983) a introduit l'approche paramétrique bayésienne empirique (voir aussi Efron et Morris (1973) (a), Casella (1985)). Nous décrivons les deux approches pour l'estimation de la moyenne de la loi gaussienne, de la loi de Poisson et de la loi exponentielle. Pour le cas gaussien, nous adaptons une méthodologie proposée par Angers (1992) pour l'estimation bayésienne hiérarchique à l'estimation bayésienne empirique dans le but d'obtenir des estimations plus robustes. Nous nous intéressons à l'estimation de la moyenne gaussienne et de la moyenne de la loi de Poisson quand les tailles des groupes sont inégales. Pour le cas gaussien, nous utilisons un estimateur du type James-Stein d'après Berger et Bock (1976) pour incorporer les tailles inégales. Dans le cas de la loi de Poisson, nous utilisons une méthode proposée par Maritz et Lwin (1989). Nous étudions également les estimateurs bayésiens empiriques pour estimer une moyenne exponentielle. Pour ce cas, nous avons introduit un nouvel estimateur bayésien empirique qui semble prometteur. Dans le cas gaussien, nous illustrons les approches en utilisant des banques de données pertinentes. Dans les autres cas, nous effectuons les études de simulation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Analyse bayésienne, bayésien empirique, estimateur de stein, estimateur minimax, plans d'expérience non équilibrés.
2

Estimation et prévision améliorées du paramètre d'une loi binomiale

Nemiri, Ahmed 03 1900 (has links) (PDF)
Dans ce mémoire, on présente une étude sur l'estimation et la prévision du paramètre binomial. Le Chapitre 1 traite de l'estimation ponctuelle et de la prévision du paramètre binomial. En suivant l'approche de Brown (2008a), on commence ce chapitre par la description de six estimateurs : trivial, moyenne générale, Bayes empirique paramétrique avec la méthode des moments, Bayes empirique paramétrique avec la méthode du maximum de vraisemblance, Bayes empirique non paramétrique et James-Stein. Ensuite, on évalue ces estimateurs en se servant de la base de données de baseball 2005 de Brown (2008b) et on finit par la comparaison des performances de ces estimateurs entre elles, selon leurs écarts quadratiques totaux normalisés. Le Chapitre 2 traite de l'estimation par intervalle de confiance et de la prévision du paramètre binomial. Dans ce chapitre, on étudie cinq intervalles de confiance en suivant l'approche de Brown, Cai et DasGupta (1999) et (2001) : standard ICs, Wilson ICw, Agresti-Coull ICac, maximum de vraisemblance ICrv et Jeffreys bilatéral ICj. En premier, vu l'importance particulière de l'intervalle standard, on calcule théoriquement, avec un n modéré, la déviation du biais, de la variance et des coefficients d'asymétrie et d'aplatissement de la variable aléatoire Wn = (n1/2(p-p) / √pq) loi→ N (0,1) par rapport à leurs valeurs asymptotiques correspondantes 0, 1, 0 et 3. Ensuite, on approxime la probabilité de couverture et la longueur moyenne de chacun des cinq intervalles de confiance mentionnés plus haut par un développement d'Edgeworth d'ordres 1 et 2. Enfin, en se servant de la même base de données de baseball 2005, on détermine ces intervalles ainsi que leurs probabilités de couverture et leurs longueurs moyennes et on compare leurs performances entre elles, selon leurs probabilités de couverture et leurs longueurs moyennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimateur de Bayes empirique paramétrique, méthode des moments, méthode du maximum de vraisemblance, estimateur de Bayes empirique non paramétrique, estimateur de James-Stein, développement d'Edgeworth d'ordres 1 et 2, intervalle de Wald (standard), intervalle de Wilson , intervalle d'Agresti-Coull, intervalle du rapport de vraisemblance, intervalle de Jeffreys bilatéral, programmes en R.
3

Régression robuste bayésienne à l'aide de distributions à ailes relevées

Schiller, Ian January 2008 (has links) (PDF)
Dans ce mémoire nous nous intéressons à des méthodes d'estimations robustes de la pente de la droite de régression linéaire simple ainsi que du paramètre d'échelle de la densité des erreurs en présence de valeurs aberrantes dans l'échantillon de données. Une revue des méthodes d'estimations des paramètres de la droite de régression est présentée. Nous y analysons numériquement les différentes méthodes afin de décrire le comportement des estimateurs en présence d'une valeur aberrante dans l'échantillon. Une méthode d'estimation bayésienne est présentée afin d'estimer la pente de la droite de régression lorsque le paramètre d'échelle est connu. Nous exprimons le problème d'estimation de la pente de la droite de régression en un problème d'estimation d'un paramètre de position, ce qui nous permet d'utiliser les résultats de robustesse bayésienne pour un paramètre de position. Le comportement de cet estimateur est ensuite étudié numériquement lorsqu'il y a une valeur aberrante dans l'échantillon de données. Enfin, nous explorons une méthode bayésienne d'estimation simultanée du paramètre d'échelle et de la pente de la droite de régression. Nous exprimons le problème comme une estimation des paramètres de position et échelle même si les résultats de robustesse bayésienne pour ce cas ne sont pas encore publiés. Nous étudions tout de même le comportement des estimateurs de façon numérique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression linéaire, Inférence bayésienne, Robustesse, Valeurs aberrantes, Densités à ailes relevées, Densités GEP (Generalized exponential power), P-credence.
4

Essais en finance internationale

Zhang, Lin January 2009 (has links) (PDF)
Cette thèse traite trois questions en finance internationale: (i) les effets du défaut partiel relatif à la dette souveraine sur le partage du risque international, (ii) la coordination imparfaite avec des créanciers multiples asymétriquement informés et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine, et (iii) le rendement empirique d'un modèle pour une petite économie ouverte avec l'indexation de salaire partiel lorsque les coûts de ressources entraînés par les dispersions des prix et des salaires sont considérés. Le chapitre l introduit le défaut partiel dans un modèle de deux pays afin de résoudre l'anomalie relative aux corrélations croisées de la consommation. Principalement, les modèles standard de cycles réels internationaux génèrent des corrélations croisées de la consommation qui sont plus élevées que celles de l'output, tandis que dans les données l'opposé est vrai. Le défaut partiel est introduit en supposant qu'un pays défaillant est exclu temporairement à l'accès aux marchés financiers internationaux, et a la possibilité de renégocier ses dettes. Le modèle généralise la sanction d'exclusion permanente au cas de défaut utilisée dans les modèles de cycles réels internationaux avec des marchés incomplets endogènes. Dans ces modèles, bien que le partage du risque international soit davantage réduit, l'anomalie liée aux corrélations croisées de la consommation reste irrésolue. De plus, la menace d'exclusion n'est ni crédible dans un contexte de finance globalisée, ni cohérente avec les faits observés que le défaut est plutôt partiel que complet, et que les emprunteurs souverains peuvent emprunter après les défauts. Les résultats démontrent que: (i) la différence entre la corrélation croisée de la consommation et celle de l'output est décroissante par rapport au nombre de périodes d'exclusion; (ii) le modèle avec défaut partiel peut générer la différence qui concorde bien avec celle dans les données. Le chapitre II analyse la coordination imparfaite avec des créanciers multiples dans un jeu global et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine. Des créanciers plus informés ou plus optimistes réduisent-ils la vulnérabilité d'un projet à la ruée des créanciers? Pour répondre à cette question, nous développons un modèle dans lequel un grand créancier et un continuum de petits créanciers indépendamment décident de reéchelonner la dette ou de liquider à la base de leurs informations privées sur la liquidité de l'emprunteur et la rentabilité du projet jusqu'à sa maturité. Nos résultats montrent qu'une amélioration de la qualité des informations ou une perception plus optimiste sur la rentabilité du projet de la part du grand créancier augmente la volonté de reéchelonner leurs dettes des petits créanciers, et donc réduit la probabilité de défaut du projet. Au niveau national, le problème de coordination est souvent résolu par la cour sur la faillite, tandis que dans un contexte international, telle institution supranationale n'existe pas. Le modèle développé dans ce chapitre permet d'évaluer les mécanismes conçus pour résoudre le problème de coordination relatif à la dette souveraine. Nous proposons également un mécanisme qui génère le même résultat qu'une cour nationale sur la faillite. Le chapitre III développe un modèle d'une petite économie ouverte dans lequel l'indexation partielle est permise, et l'estime avec les données canadiennes utilisant les techniques d'estimation Bayésienne. Les travaux empiriques avec les modèles d'équilibre général stochastique et dynamique tels que Christiano, Eichenbaum et Evans (2005) imposent que les salaires et les prix non-ajustés sont complètement indexés à l'inflation retardée. Cette spécification a l'avantage de concorder avec l'inflation positive tendancielle observée dans les données sans nécessiter de considérer les coûts de ressources entraînés par les dispersions des prix et des salaires. Pourtant, l'évidence empirique pour appuyer cette spécification est manquante. Par contre, la base de données sur les conventions collectives au Canada montre que seulement une petite proportion de contrats de travail contient des clauses d'indexation aux coûts de la vie. Les résultats montrent que: (i) les salaires sont partiellement indexés à l'inflation retardée; (ii) le rendement empirique décroit avec une version du modèle dans lequel les salaires sont complètement indexés à l'inflation retardée; (iii) le modèle avec indexation partielle capte bien la dynamique de l'économie canadienne. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Cycles réels internationaux, Défaut partiel, Coordination, Dette souveraine, Petite économie ouverte, Inférence Bayésienne.
5

Une étude comparative de méthodes d'assimilation de données pour des modèles océaniques

Ruggiero, Giovanni Abdelnur 13 March 2014 (has links) (PDF)
Cette thèse a développé et mis en œuvre des algorithmes itératifs d'assimilation de données pour un modèle d'océan aux équations primitives, et les a comparés avec d'autres méthodes d'AD bien établis tels que le 4Dvar et le Singular Evolutive Extended Kalman (SEEK) Filtre /lisseur. Le modèle numérique utilisé est le modèle NEMO. Il a été configuré pour simuler la circulation typique subtropicale en double gyre. Les nouveaux algorithmes itératifs proposés, semblables au Nudging direct et rétrograde - BFN, sont tous basés sur une séquence d'intégrations alternées du modèle direct et rétrograde. Ce sont le ''Backward Smoother'' (BS), qui utilise le modèle rétrograde pour propager librement des observations "futures" en rétrograde dans le temps, et le ''Back and Forth Kalman Filter'' (BFKF), qui utilise également le modèle rétrograde pour propager les observations en arrière dans le temps, mais qui à chaque fois qu'un lot d'observations est disponible, réalise une étape de mise à jour du système similaire à l'étape de mise à jour du filtre SEEK. Le formalisme Bayésien a été utilisé pour dériver ces méthodes, ce qui signifie qu'ils peuvent être utilisés avec n'importe quelle méthode qui estime la probabilité postérieure du système par des méthodes séquentielles. Les résultats montrent que l'avantage principal des méthodes basées sur le BFN est l'utilisation du modèle rétrograde pour propager les informations des observations en arrière dans le temps.
6

Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /

Younes, Hassan, January 2005 (has links)
Thèse (D. en mathématiques)--Université du Québec à Montréal, 2005. / En tête du titre: Université du Québec à Montréal. Bibliogr.: f. [102]-107. Publié aussi en version électronique.
7

Analyse de mélanges à partir de signaux de chromatographie gazeuse / Analysis of gaseous mixture from gas chromatography signal.

Bertholon, Francois 23 September 2016 (has links)
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI. / The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method.
8

Une étude comparative de méthodes d'assimilation de données pour des modèles océaniques / A comparative study of data assimilation methods for oceanic models

Ruggiero, Giovanni Abdelnur 13 March 2014 (has links)
Cette thèse a développé et mis en œuvre des algorithmes itératifs d'assimilation de données pour un modèle d'océan aux équations primitives, et les a comparés avec d'autres méthodes d'AD bien établis tels que le 4Dvar et le Singular Evolutive Extended Kalman (SEEK) Filtre /lisseur. Le modèle numérique utilisé est le modèle NEMO. Il a été configuré pour simuler la circulation typique subtropicale en double gyre. Les nouveaux algorithmes itératifs proposés, semblables au Nudging direct et rétrograde - BFN, sont tous basés sur une séquence d'intégrations alternées du modèle direct et rétrograde. Ce sont le ``Backward Smoother'' (BS), qui utilise le modèle rétrograde pour propager librement des observations "futures" en rétrograde dans le temps, et le ``Back and Forth Kalman Filter'' (BFKF), qui utilise également le modèle rétrograde pour propager les observations en arrière dans le temps, mais qui à chaque fois qu'un lot d'observations est disponible, réalise une étape de mise à jour du système similaire à l'étape de mise à jour du filtre SEEK. Le formalisme Bayésien a été utilisé pour dériver ces méthodes, ce qui signifie qu'ils peuvent être utilisés avec n'importe quelle méthode qui estime la probabilité postérieure du système par des méthodes séquentielles. Les résultats montrent que l'avantage principal des méthodes basées sur le BFN est l'utilisation du modèle rétrograde pour propager les informations des observations en arrière dans le temps. / This thesis developed and implemented iterative data assimilation algorithms for a primitive equation ocean model, and compared them with other well established DA methods such as the 4Dvar and the Singular Evolutive Extended Kalman (SEEK) Filter/Smoother. The new proposed iterative algorithms, similarly to the Back and Forth Nudging (BFN), are all based on a sequence of alternating forward and backward model integrations. Namely, they are the Backward Smoother (BS), which uses the backward model to freely propagate “future” observations backward in time, and the Back and Forth Kalman Filter, which also uses the backward model to propagate the observations backward in time but, at every time an observation batch is available, an update step similar to the SEEK filter step is carried out. The Bayesian formalism was used to derive these methods, which means that they may be used with any algorithm that estimates the “a posteriori” conditional probability of the model state by means of sequential methods. The results show that the main advantage of the methods based on the BFN is the use of the backward model to propagate the observation informations backward in time. By this way, it avoids the use of the adjoint model, needed by the 4Dvar, and of unknown temporal correlations, needed by the Kalman Smoother, to produce initial states or past model trajectories. The advantages of using the Back and Forth (BF) idea rely on the implicit use of the unstable forward subspace, which became stable when stepping backwards, that allows the errors components projecting onto this subspace to be naturally damped during the backward integration.

Page generated in 0.1099 seconds