• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 2
  • 1
  • Tagged with
  • 21
  • 21
  • 10
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Moyennage de modèles pour l'estimation d'effets causaux avec la méthode de pondération par les probabilités inversées

Chabot-Blanchet, Malorie 03 1900 (has links) (PDF)
Pour estimer un effet causal dans les études d'observation en épidémiologie, les méthodes de pondération par les probabilités inversées et les méthodes doublement robustes sont couramment utilisées. Il n'est toutefois pas facile de spécifier correctement le modèle de traitement et les estimateurs associés sont particulièrement sensibles à un choix de modèle incorrect. Le but principal de ce projet est de déterminer si le fait de prendre une moyenne sur plusieurs modèles pourrait améliorer la performance des estimateurs par pondération par les probabilités inversées, en comparaison à une estimation basée sur un seul modèle. Pour ce faire, nous utilisons les critères d'ajustement AIC et BIC pour associer un poids (probabilité) à chacun des modèles. Nous nous intéressons plus particulièrement à deux façons d'utiliser ces poids 1) soit la pondération externe qui considère une moyenne des estimations obtenues sous chacun des modèles de l'ensemble des modèles considérés, et 2) la pondération interne qui effectue une moyenne des scores de propension obtenus sous chacun des modèles pour ensuite obtenir l'estimation correspondante. Nous comparons les résultats obtenus sons chacun des modèles individuellement, puis sous les différentes façons proposées de considérer un ensemble de modèles. Nous regardons la performance des techniques lorsque le vrai modèle fait ou ne fait pas partie des modèles considérés. Nous obtenons que la pondération apporte un compromis intéressant pour pallier l'incertitude reliée à la sélection du modèle de traitement. Nous observons que l'estimateur basé sur la pondération interne semble avoir une variance plus petite que l'estimateur basé sur la pondération externe et que l'estimateur par pondération par les probabilités inversées employé sur les modèles individuellement, surtout lorsqu'ils sont appliqués sur des échantillons de petite taille. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimation causale, sélection de modèle, moyennage de modèles, étude d'observation, pondération par probabilités inversées.
2

Estimation robuste de la matrice de covariance en traitement du signal / Robust covariance matrix estimation in signal processing

Mahot, Mélanie 06 December 2012 (has links)
De nombreuses applications de traitement de signal nécessitent la connaissance de la matrice de covariance des données reçues. Lorsqu'elle n'est pas directement accessible, elle est estimée préalablement à l'aide de données d'apprentissage. Traditionnellement, le milieu est considéré comme gaussien. L'estimateur du maximum de vraisemblance est alors la sample covariance matrix (SCM). Cependant, dans de nombreuses applications, notamment avec l'arrivée des techniques haute résolution, cette hypothèse n'est plus valable. De plus, même en milieu gaussien, il s'avère que la SCM peut-être très influencée par des perturbations (données aberrantes, données manquantes, brouilleurs...) sur les données. Dans cette thèse nous nous proposons de considérer un modèle plus général, celui des distributions elliptiques. Elles permettent de représenter de nombreuses distributions et des campagnes de mesures ont montré leur bonne adéquation avec les données réelles, dans de nombreuses applications telles que le radar ou l'imagerie hyperspectrale. Dans ce contexte, nous proposons des estimateurs plus robustes et plus adaptés : les M-estimateurs et l'estimateur du point-fixe (FPE). Leurs performances et leur robustesse sont étudiées et comparées à celles de la SCM. Nous montrons ainsi que dans de nombreuses applications, ces estimateurs peuvent remplacer très simplement la SCM, avec de meilleures performances lorsque les données sont non-gaussiennes et des performances comparables à la SCM lorsque les données sont gaussiennes. Les résultats théoriques développés dans cette thèse sont ensuite illustrés à partir de simulations puis à partir de données réels dans le cadre de traitements spatio-temporels adaptatifs. / In many signal processing applications, the covariance matrix of the received data must be known. If unknown, it is firstly estimated with some training data. Classically, the background is considered as Gaussian. In such a case, the maximum likelihood estimator is the Sample Covariance Matrix (SCM). However, due to high resolution methods or other new technics, the Gaussian assumption is not valid anymore. Moreover, even when the data are Gaussian, the SCM can be strongly influenced by some disturbances such as missing data and/or outliers. In this thesis, we use a more general model which encompasses a large panel of distributions: the elliptical distributions. Many campagns of measurement have shown that this model leads to a better modelling of the data. In this context, we present more robust and adapted estimators: the M-estimators and Fixed Point Estimator (FPE). Their properties are derived in terms of performance and robustness, and they are compared to the SCM. We show that these estimators can be used instead of the SCM with nearly the same performance when the data are Gaussian, and better performance when the data are non-Gaussian. Theoretical results are emphasized on simulations and on real data in a context of Space Time Adaptive Processing.
3

Estimation de la borne supérieur par des approches statistiques et par la méthode de Stringer

Joubir, Sami January 2010 (has links) (PDF)
Ce mémoire présente de nouvelles approches statistiques pour estimer la borne supérieure d'une population dans un contexte bien particulier, celui de la vérification comptable. Étant donné que dans la plupart des cas on se retrouve avec des échantillons où le nombre d'erreurs est souvent. faible ou nul, les méthodes classiques risquent fort d'être inadéquates. Dans ce mémoire, nous allons revenir sur quelques méthodes classiques puis présenter différentes méthodes spécifiques proposées par des chercheurs et nous mettrons l'accent sur la méthode de Stringer qui est très utilisée dans la pratique de la profession. Notre objectif est de voir dans quels cas ces méthodes pourraient être plus efficaces que les méthodes classiques. Les propriétés des méthodes classiques sont connues, contrairement à celles des approches spécifiqes où plusieurs d'entre elles n'ont jamais été démontrées et, parmi elles, la méthode de Stringer qui nous intéresse particulièrement. À cet effet, dans le chapitre 3, nous allons faire des simulations pour confirmer les comparaisons théoriques entre les méthodes dont on connait les propriétés et voir les résultats de celles qu'on ne connaît pas. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Échantillonnage, Estimation, Borne supérieure, Méthodes classiques, Méthode de Stringer.
4

L'estimation à l'aide d'une variable auxiliaire

Elbaz, Malika January 2010 (has links) (PDF)
Dans le domaine des sondages, il y a plusieurs méthodes d'estimer une moyenne ou un total d'une population. Une des techniques les plus pratiques est l'utilisation d'une variable auxiliaire ayant une corrélation avec la variable d'intérêt et dont les données sur toute la population sont connues. Dans ce mémoire, on va s'intéresser particulièrement à l'estimation d'une moyenne par le quotient. Dans ce cadre, on va traiter largement cette approche, en détaillant premièrement tout ce qui concerne l'estimateur par le quotient afin de répondre à toute question sur le sujet. Par la suite, on va étudier un cas particulier de l'estimation par le quotient lorsque la variable étudiée est dichotomique, en examinant les estimateurs possibles selon le mode de tirage, soit le tirage avec probabilités égales ou probabilités inégales avec ou sans remise. Dans le dernier chapitre, on présentera le cas où la variable auxiliaire est aussi dichotomique. Quatre estimateurs seront proposés pour estimer la moyenne de la population. On va analyser leurs propriétés dans le but de pouvoir les comparer. Afin que le traitement théorique soit valable, on va le concrétiser par des simulations avec des populations réelles et d'autres générées selon des paramètres donnés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Estimateur, Quotient, Variable auxiliaire, Variable dichotomique.
5

Inférence pour des processus affines basée sur des observations à temps discret

Lolo, Maryam January 2009 (has links) (PDF)
Dans ce mémoire, on étudie la distribution empirique des estimateurs de vraisemblance maximale pour des processus affines, basés sur des observations à temps discret. On examine d'abord le cas où le processus est directement observable. Ensuite, on regarde ce qu'il advient lorsque seule une transformation affine du processus est observable, une situation typique dans les applications financières. Deux approches sont alors considérées: maximisation de la vraisemblance exacte ou maximisation d'une quasi-vraisemblance obtenue du filtre de Kalman. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Estimation de vraisemblance maximale, Processus affines, Obligation à l'escompte, Quasi-vraisemblance, Filtre de Kalman.
6

Impact d'un taux d'inflation variable sur la paramétrisation des variables contrôles d'une règle monétaire

Nessim, Manal 08 1900 (has links) (PDF)
La Réserve fédérale a adopté un comportement plus agressif de lutte à l'inflation durant la période post-1979. Le changement d'orientation de la politique monétaire serait possiblement la cause principale de la stabilité accrue de l'économie après 1979. Lors de la simulation du modèle néo-keynésien, Clarida, Gali et Gertler (2000) mettent l'accent sur la réponse du taux d'intérêt aux écarts entre le taux d'inflation et une cible d'inflation constante. En s'inspirant du modèle néo-keynésien adopté par Clarida, Gali et Gertler (2000), cette étude fait l'objet d'estimations de règles monétaires pré-et post-1979. Le taux d'intérêt nominal semble être très sensible aux changements du taux d'inflation anticipé durant la période Volcker-Greenspan. Ainsi, nous faisons varier le taux cible d'inflation par l'emploi d'une marche aléatoire et nous analysons l'effet d'une cible d'inflation variable sur les variables contrôles de la règle monétaire durant les périodes pré-et post-1979. Nous réestimons la règle de la Fed au moyen d'une spécification plus réaliste et au moyen d'une méthode d'estimation plus rigoureuse permettant notamment un test formel de la validité des instruments utilisés lors de l'estimation. Il est donc nécessaire de s'assurer que la paramétrisation des valeurs considérées dans le modèle conçu par Clarida, Gali et Gertler (2000) est crédible. Les résultats montrent que l'emploi d'une cible d'inflation variable représente bien les données empiriques pour la période pré-et post-Volcker, tandis que l'utilisation d'une cible d'inflation constante dans la règle monétaire donne une bonne représentation de la conduite de la politique monétaire durant la période Volcker-Greenspan. Que nous utilisions un taux cible d'inflation constant ou variable dans notre estimation, les conclusions sont similaires, c'est-à-dire que la politique monétaire était accommodante avant 1979 et non accommodante après 1979. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : variabilité de l'inflation, règle monétaire, cible d'inflation variable, marche aléatoire.
7

Estimation robuste de la matrice de covariance en traitement du signal

Mahot, Mélanie 06 December 2012 (has links) (PDF)
De nombreuses applications de traitement de signal nécessitent la connaissance de la matrice de covariance des données reçues. Lorsqu'elle n'est pas directement accessible, elle est estimée préalablement à l'aide de données d'apprentissage. Traditionnellement, le milieu est considéré comme gaussien. L'estimateur du maximum de vraisemblance est alors la sample covariance matrix (SCM). Cependant, dans de nombreuses applications, notamment avec l'arrivée des techniques haute résolution, cette hypothèse n'est plus valable. De plus, même en milieu gaussien, il s'avère que la SCM peut-être très influencée par des perturbations (données aberrantes, données manquantes, brouilleurs...) sur les données. Dans cette thèse nous nous proposons de considérer un modèle plus général, celui des distributions elliptiques. Elles permettent de représenter de nombreuses distributions et des campagnes de mesures ont montré leur bonne adéquation avec les données réelles, dans de nombreuses applications telles que le radar ou l'imagerie hyperspectrale. Dans ce contexte, nous proposons des estimateurs plus robustes et plus adaptés : les M-estimateurs et l'estimateur du point-fixe (FPE). Leurs performances et leur robustesse sont étudiées et comparées à celles de la SCM. Nous montrons ainsi que dans de nombreuses applications, ces estimateurs peuvent remplacer très simplement la SCM, avec de meilleures performances lorsque les données sont non-gaussiennes et des performances comparables à la SCM lorsque les données sont gaussiennes. Les résultats théoriques développés dans cette thèse sont ensuite illustrés à partir de simulations puis à partir de données réels dans le cadre de traitements spatio-temporels adaptatifs.
8

Étude d'une classe d'estimateurs à noyau de la densité d'une loi de probabilité

Abdous, Belkacem 23 January 2019 (has links)
Dans ce travail nous donnons un aperçu des plus intéressantes approches visant à déterminer la fenêtre optimale en estimation de la densité d’une loi de probabilité par la méthode du noyau. Nous construisons ensuite une classe d’estimateurs à noyau de la densité pour lesquels nous avons établi des conditions suffisantes de convergence uniforme presque sûre et L¹ presque sûre vers la densité à estimer f [f incliné vers la droite]. Cette classe d’estimateurs à noyau étant assez générale, elle nous a permis d’appliquer ces résultats de convergence à des estimateurs à noyau classiques comme ceux de Deheuvels (1977-a), Shanmugam (1977), Bierens (1983), et Devroye et Wagner (1983). Elle nous a permis également, de construire une famille d’estimateurs à noyau de moyenne μn et de matrice de variance-covariance Vn, où fin est un estimateur non spécifié de la moyenne de / et Vn, à une constante multiplicative près, la matrice de variance-covariance empirique. Enfin, en simulant quelques modèles univariés connus, nous avons comparé les performances de l’estimateur à noyau de Parzen-Rosenblatt avec celles de l’estimateur à noyau de variance la variance empirique et de moyenne /xn, où a été choisi comme étant la moyenne empirique X n ou bien la médiane X n ou bien la moyenne empirique a-tronquée (a = 0.1) ou bien l’estimateur de Gastwirth (1966). / Québec Université Laval, Bibliothèque 2018
9

Analyse de performance d'un système d'authentification utilisant des codes graphiques / Performance Analysis of an Authentication Method relying on Graphical Codes

Mai Hoang, Bao An 01 December 2014 (has links)
Nous étudions dans cette thèse l'influence d'un système d'authentification utilisant des codes graphiques 2D modifiés lors de l'impression par un procédé physique non-clônable. Un tel procédé part du principe qu'à très haute résolution le système d'impression acquisition peut être modélisé comme un processus stochastique, de part le caractère aléatoire de la disposition des fibres de papiers, de mélange des particules d'encre, de l'adressabilité de l'imprimante ou encore du bruit d'acquisition. Nous considérons un scénario où l'adversaire pourra estimer le code original et essaiera de le reproduire en utilisant son propre système d'impression. La première solution que nous proposons pour arriver à l'authentification est d'utiliser un test d'hypothèse à partir des modèles à priori connus et sans mémoire des canaux d'impression-acquisition de l'imprimeur légitime et du contrefacteur. Dans ce contexte nous proposons une approximation fiable des probabilités d'erreur via l'utilisation de bornes exponentiels et du principe des grandes déviations. Dans un second temps, nous analysons un scénario plus réaliste qui prends en compte une estimation a priori du canal du contrefacteur et nous mesurons l'impact de cette étape sur les performances du système d'authentification. Nous montrons qu'il est possible de calculer la distribution des probabilité de non-détection et d'en extraire par exemple ses performances moyennes. La dernière partie de cette thèse propose d'optimiser, au travers d'un jeu minimax, le canal de l'imprimeur. / We study in this thesis the impact of an authentication system based on 2D graphical codes that are corrupted by a physically unclonable noise such as the one emitted by a printing process. The core of such a system is that a printing process at very high resolution can be seen as a stochastic process and hence produces noise, this is due to the nature of different elements such as the randomness of paper fibers, the physical properties of the ink drop, the dot addressability of the printer, etc. We consider a scenario where the opponent may estimate the original graphical code and tries to reproduce the forged one using his printing process in order to fool the receiver. Our first solution to perform authentication is to use hypothesis testing on the observed memoryless sequences of a printed graphical code considering the assumption that we are able to perfectly model the printing process. The proposed approach arises from error exponent using exponential bounds as a direct application of the large deviation principle. Moreover, when looking for a more practical scenario, we take into account the estimation of the printing process used to generate the graphical code of the opponent, and we see how it impacts the performance of the authentication system. We show that it is both possible to compute the distribution of the probability of non-detection and to compute the average performance of the authentication system when the opponent channel has to be estimated. The last part of this thesis addresses the optimization problem of the printing channel.
10

L'habileté des élèves du district fédéral du Brésil à estimer des résultats de calculs

Boessenkool, Geessina Gerda January 1990 (has links)
Cette recherche vise deux objectifs: (1) évaluer l'habileté des élèves brésiliens à estimer des résultats de calculs, et (2) mettre en évidence les stratégies qu'ils utilisent pour faire de telles estimations. Pour atteindre le premier, nous avons administré à l’aide du rétroprojecteur un test à 197 élèves de 5e et 172 de 8e année provenant de trois écoles (une privée et deux publiques) du Brésil. Pour réaliser le second, nous avons fait des entrevues cliniques avec 16 sujets, choisis parmi les précédents d'après leur rendement fort, moyen ou faible au test d'estimation. Les résultats obtenus montrent que les élèves des deux niveaux sont très faibles dans l'estimation de résultats de calculs, qui n'est pas enseignée à l'école. La plupart n'emploient qu'une stratégie d'estimation: la stratégie frontale. Les élèves de 8e année affichent un rendement nettement supérieur, de même que les élèves provenant de l'école privée. Les garçons obtiennent de meilleurs résultats que les filles. / Québec Université Laval, Bibliothèque 2019

Page generated in 0.1723 seconds