• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 42
  • 14
  • 1
  • 1
  • Tagged with
  • 162
  • 59
  • 54
  • 40
  • 30
  • 27
  • 27
  • 25
  • 24
  • 23
  • 23
  • 20
  • 20
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Pénalisation et réduction de la dimension des variables auxiliaires en théorie des sondages

Shehzad, Muhammad Ahmed 12 October 2012 (has links) (PDF)
Les enquêtes par sondage sont utiles pour estimer des caractéristiques d'une populationtelles que le total ou la moyenne. Cette thèse s'intéresse à l'étude detechniques permettant de prendre en compte un grand nombre de variables auxiliairespour l'estimation d'un total.Le premier chapitre rappelle quelques définitions et propriétés utiles pour lasuite du manuscrit : l'estimateur de Horvitz-Thompson, qui est présenté commeun estimateur n'utilisant pas l'information auxiliaire ainsi que les techniques decalage qui permettent de modifier les poids de sondage de facon à prendre encompte l'information auxiliaire en restituant exactement dans l'échantillon leurstotaux sur la population.Le deuxième chapitre, qui est une partie d'un article de synthèse accepté pourpublication, présente les méthodes de régression ridge comme un remède possibleau problème de colinéarité des variables auxiliaires, et donc de mauvais conditionnement.Nous étudions les points de vue "model-based" et "model-assisted" dela ridge regression. Cette technique qui fournit de meilleurs résultats en termed'erreur quadratique en comparaison avec les moindres carrés ordinaires peutégalement s'interpréter comme un calage pénalisé. Des simulations permettentd'illustrer l'intérêt de cette technique par compar[a]ison avec l'estimateur de Horvitz-Thompson.Le chapitre trois présente une autre manière de traiter les problèmes de colinéaritévia une réduction de la dimension basée sur les composantes principales. Nousétudions la régression sur composantes principales dans le contexte des sondages.Nous explorons également le calage sur les moments d'ordre deux des composantesprincipales ainsi que le calage partiel et le calage sur les composantes principalesestimées. Une illustration sur des données de l'entreprise Médiamétrie permet deconfirmer l'intérêt des ces techniques basées sur la réduction de la dimension pourl'estimation d'un total en présence d'un grand nombre de variables auxiliaires
12

Méthodes statistiques pour l'évaluation du risque alimentaire

Tressou, Jessica 09 December 2005 (has links) (PDF)
Les aliments peuvent être contaminés par certaines substances chimiques, qui, lorsqu'elles sont ingérées à des doses trop importantes, peuvent engendrer des problèmes de santé. Notre but est d'évaluer la probabilité que l'exposition au contaminant dépasse durablement une dose tolérable par l'organisme que nous appelons risque. La modélisation de la queue de distribution par des lois extrêmes permet de quantifier un risque très faible. Dans les autres cas, l'estimateur empirique du risque s'écrit comme une U-statistique généralisée, ce qui permet d'en dériver les propriétés asymptotiques. Des développements statistiques permettent d'intégrer à ce modèle la censure des données de contamination. Enfin, un modèle économétrique de décomposition de données ménage en données individuelles nous permet de proposer une nouvelle méthode de quantification du risque de long terme prenant en compte l'accumulation du contaminant et sa lente dégradation par l'organisme.
13

Estimation récursive de fonctionnelles

Thiam, Baba 05 December 2006 (has links) (PDF)
L'objet de cette thèse est l'étude du comportement asymptotique d'estimateurs à noyau d'une densité de probabilité et de ses dérivées, d'une fonction de régression, ainsi que du mode et de la valeur modale d'une densité de probabilité. Le but est d'établir certaines propriétés des estimateurs à noyau récursifs ou semi-récursifs afin de comparer leur comportement asymptotique à celui des estimateurs classiques. Dans le premier chapitre, nous établissons des principes de grandes déviations (PGD) et des principes de déviations modérées (PDM) pour l'estimateur récursif d'une densité de probabilité et pour ses dérivées. Il s'avére que, dans les principes de déviations vérifiés par les estimateurs des dérivées, la fonction de taux est toujours une fonction quadratique, que les déviations soient grandes ou modérées. Contrairement, pour l'estimateur de la densité, les fonctions de taux qui apparaissent sont de nature différente selon que les déviations sont grandes ou modéerées. Les fonctions de taux qui apparaissent tant dans les PGD pour les dérivées que dans les PDM pour la densité et pour les dérivées sont plus grandes dans le cas où l'estimateur récursif est utilisé. Dans le deuxième chapitre, nous établissons des PGD et des PDM pour des estimateurs à noyau d'une fonction de régression. Nous généralisons les résultats déjà obtenus dans le cas unidimensionnel pour l'estimateur de Nadaraya-Watson. Nous étudions ensuite le comportement en déviations de la version semi-récursive de cet estimateur en établissant des PGD et des PDM. Les fonctions de taux qui apparaissent dans les PDM sont plus grandes pour l'estimateur semi-récursif que pour l'estimateur classique. Dans le troisième chapitre, nous nous intéressons à l'estimation jointe du mode et de la valeur modale d'une densité de probabilité basée sur l'estimateur à noyau récursif de la densité. Nous étudions la vitesse de convergence en loi et presque sûre du couple formé par ces deux estimateurs. Pour estimer simultanément les deux paramètres de façon optimale, il faut utiliser des fenêtres différentes pour définir chacun des deux estimateurs. Les estimateurs semi-récursifs conduisent à des variances asymptotiques plus petites que les estimateurs classiques.
14

Estimation des indices de stabilité et d'autosimilarité par variations de puissances négatives / Estimation of the stability and the self-similarity indices through negative power variations

Dang, Thi To Nhu 05 July 2016 (has links)
Ce travail porte sur l'estimation des indices d'autosimilarité et de stabilité d'un processus ou champ stable fractionnaire et autosimilaire ou d'un processus stable multifractionnaire.Plus précisément, soit X un processus ou un champ stable H-autosimilaire à accroissements stationnaires (H-sssi) ou un processus stable multifractionnaire. Nous observons X aux points k/n, k=0,..., n.Nos estimations sont basées sur des variations de puissances négatives beta avec -1/2<beta<0: en effet, ces variations ont une espérance et une variance.Nous obtenons des estimateurs consistants, avec les vitesses de convergence, pour plusieurs processus H-sssi alpha-stables classiques (mouvement brownien fractionnaire, mouvement stable fractionnaire linéaire, processus de Takenaka, movement de Lévy).De plus, nous obtenons la normalité asymptotique de nos estimations pour le mouvement brownien fractionnaire et le mouvement de Lévy.Ce nouveau cadre nous permet de donner une estimation pour le paramètre d'autosimilarité H sans hypothèse sur alpha et, vice versa, nous pouvons estimer l'indice stable alpha sans hypothèse sur H.En généralisant, pour le cas d'une dimension supérieure à 1, nous obtenons également des estimateurs consistants pour H et alpha. Les résutats sont illustrés par des exemples: champ de Lévy fractionnaire, champ stable fractionnaire linéaire, champ de Takenaka.Pour les processus stables multifractionnaires, nous nous concentrons sur le mouvement brownien multifractionnaire et le processus stable multifractionnaire linéaire. Dans ces deux cas, nous obtenons la consistance des estimateurs pour la fonction d'autosimilarité à un temps donné u et pour l'indice stable alpha. / This work is concerned with the estimation of the self-similarity and the stability indices of a H-self-similarity stable process (field) or a multifractional stable process.More precisely, let X be a H-sssi (self-similar stationary increments) symmetric alpha-stable process (field) or a multifractional stable process. We observe X at points k/n, k=0,...,n.Our estimates are based on beta-negative power variations with -1/2<beta<0, thanks to the existence of expectations and covariances of these variations.We get consistent estimators, with rates of convergence, for several classical H-sssi alpha-stable processes(fractional Brownian motion, well-balanced linear fractional stable motion, Takenaka's processes, Lévy motion). Moreover, we get asymptotic normality of our estimates for fractional Brownian motion and Lévy motion.This new framework allows us to give an estimator for the self-similarity parameter H without assumptions on alpha and, vice versa, we can estimate the stable index alpha without assumptions on H.Generalizing for the case of high dimensions, we also obtain consistent estimators for H and alpha. The results are illustrated with some familiar examples: Lévy fractional Brownian field, well-balanced linear fractional stable field and Takenaka random field.For multifractional stable process, we concentrate on multifractional Brownian motion and linear multifractional stable process. In these two cases, we get the consistency of the estimators for the value of self-similarity function H at a fixed time u and for the stability index alpha.
15

Conception d’un circuit de lecture à étampes temporelles multiples pour un photodétecteur destiné à la tomographie d’émission par positrons

Lemaire, William January 2018 (has links)
La médecine moderne fait usage de divers appareils pour faciliter le diagnostic et le traitement des maladies. Parmi ceux-ci, l’imagerie par tomographie d’émission par positrons (TEP) se démarque par sa capacité d’imager des processus biologiques spécifiques comme le métabolisme du glucose. Cette caractéristique permet de mettre en évidence des signes distinctifs des maladies comme le cancer à l’aide de radiotraceurs capables de cibler certaines cellules. Dans le but de favoriser de meilleurs diagnostics et de mener des recherches de pointe dans le domaine médical, la qualité des images produites par les appareils TEP doit être améliorée. Les avancées des dernières années ont permis d’améliorer la résolution spatiale des images jusqu’à pratiquement atteindre la limite théorique imposée par le déplacement du positron lors du processus de désintégration. Depuis, les travaux s’orientent plutôt vers l’amélioration du contraste de l’image en intégrant la mesure du temps de vol (TdV) dans l’algorithme de reconstruction. Le défi dans cette mesure réside dans la conception d’un photodétecteur avec une résolution temporelle suffisante pour localiser le lieu d’émission du radiotraceur entre deux détecteurs coïncidents. La plupart des photodétecteurs actuels utilisent un seuil sur le nombre de photons de scintillation observé pour déterminer le temps d’arrivée des photons d’annihilation dans le scintillateur. Cependant, plusieurs travaux ont démontré qu’une meilleure résolution temporelle est atteignable en pondérant adéquatement l’information temporelle numérisée de plusieurs photons de scintillation à la place de n’en considérer qu’un seul. Dans le but d’améliorer la résolution temporelle des photodétecteurs, l’utilisation d’un estimateur statistique combinant l’information de plusieurs photons de scintillation se révèle une méthode prometteuse en considérant les résultats théoriques. Cependant, une implémentation matérielle pouvant être intégrée à un appareil TEP reste à être démontrée. Les travaux de recherche présentés dans ce mémoire portent sur l’intégration d’un tel estimateur statistique à un photodétecteur pour la TEP. Ces travaux ont mené au développement d’une chaine d’acquisition qui comporte 1) un circuit de lecture, 2) une trieuse, 3) un filtre de bruit thermique et 4) un estimateur statistique du temps d’interaction basé sur le Best Linear Unbiased Estimator (BLUE). L’intégration de cette chaine à même le circuit intégré du photodétecteur de 1 x 1 mm2 en CMOS 65 nm permet de réduire la bande passante de 250 Mbit/s à 0,5 Mbit/s et le temps mort de 68,6 μs à 1024 ns. Des simulations démontrent l’atteinte d’une résolution temporelle qui s’approche de la limite inférieure théorique (appelée borne de Cramér-Rao) quant à la résolution temporelle atteignable par ce photodétecteur.
16

Contrôle de l'épaisseur de gelée dans les réacteurs métallurgiques à haute température à l'aide d'un capteur virtuel

Lebreux, Marc January 2011 (has links)
Au Québec, les producteurs d'aluminium consomment 12% de la puissance totale installée d'Hydro-Québec. Dans un contexte où le prix de l'énergie est en constante progression, les alumineries font donc face à des défis énergétiques de taille ; de plus, la production d'émissions de gaz à effet de serre étant directement reliée à la consommation d'énergie, des défis environnementaux importants s'annoncent pour le futur. Pour répondre à ces défis, une des avenues envisagées concerne la couche de gelée qui est présente dans chacune des cuves d'électrolyse d'aluminium. La couche de gelée a une importance capitale dans le procédé de fabrication d'aluminium, car elle sert de barrière protectrice aux parois réfractaires contre le bain électrolytique très corrosif à haute température. Elle permet également de minimiser les courants horizontaux à l'intérieur de la cuve, ce qui assure sa stabilité magnéto-hydrodynamique et permet d'optimiser l'efficacité de courant du procédé. La méthode traditionnelle pour mesurer le profil de gelée dans une cuve se fait manuellement à l'aide d'une sonde mécanique, mais cette opération nécessite beaucoup de temps ainsi que du personnel qualifié. De plus, ces mesures sont réalisées à une faible fréquence, et nécessitent l'ouverture du capot, ce qui libère beaucoup de chaleur et d'émissions chimiques dans l'atmosphère. Pour pallier aux désavantages de la méthode traditionnelle, ce travail présente le développement d'une méthode inverse (capteur virtuel) qui permet d'estimer en continu, et de manière non-instrusive [i.e. non-intrusive], l'épaisseur de gelée à partir de mesures thermiques (température et/ou flux de chaleur) provenant de capteurs situés dans les parois latérales de la cuve d'électrolyse. Le capteur virtuel est composé d'un filtre de Kalman et d'un estimateur récursif aux moindres-carrés, et il est combiné à une procédure d'identification du procédé en modèles d'état. Cette approche est appliquée pour la première fois dans la résolution d'un problème inverse avec changement de phase et en utilisant des capteurs de flux de chaleur. Parce que pour les alumineries, l'intérêt et le réel défi consistent plutôt à contrôler l'épaisseur de gelée, le capteur virtuel est ensuite combiné à un algorithme de contrôle qui régule le système de refroidissement des parois latérales de la cuve d'électrolyse. Ceci permet alors de contrôler à sa guise l'épaisseur de gelée malgré les perturbations thermiques inhérentes au procédé. La stratégie de contrôle retenue consiste en un contrôleur classique proportionnel-intégral-dérivatif, largement utilisé en industrie. Le capteur virtuel et l'algorithme de contrôle sont ensuite validés pour des conditions d'opérations typiques présentes dans les réacteurs métallurgiques à haute température. Les résultats montrent que la différence entre l'épaisseur réelle de gelée et celle prédite avec le capteur virtuel demeure dans tous les cas inférieure à 5%, tandis que la stratégie de contrôle demeure stable pour chacune des conditions d'opération, assure une erreur nulle en régime permanent ainsi qu'aucun dépassement de consigne, et procure une erreur maximale de 1 x 10[indice supérieur -3] m sur le suivi de la consigne de l'épaisseur de gelée. Pour répondre simultanément à la problématique d'estimation et de contrôle de l'épaisseur de gelée, le présent travail nécessite donc la combinaison de plusieurs domaines traditionnellement séparés (modélisation, transfert de chaleur, identification, méthodes inverses, contrôle) et cette procédure est appliquée pour la première fois dans le procédé d'électrolyse d'aluminium.
17

Estimation paramétrique d'une diffusion ergodique observée à temps discret

Souchet, Sandie 13 January 1999 (has links) (PDF)
Cette thèse comporte cinq chapitres.<br /><br />Chapitre 1 : Schémas de discrétisation anticipatifs et estimation du paramètre de dérive d'une diffusion. <br />Pour estimer le paramètre de dérive d'une diffusion unidimensionnelle ergodique observée à pas d>0 et fixé, on construit des contrastes basés sur des schémas d'approximation anticipatifs (schéma du trapèze et de Simpson) couplés à la méthode d'estimation des moments généralisés. Les estimateurs obtenus présentent des biais d'estimation en d**2 pour le schéma du trapèze et en d**4 pour le schéma de Simpson. L'efficacité asymptotique est par ailleurs préservée à un facteur (1+O(d)) près.<br /><br />Chapitre 2 : Schéma d'approximation adapté à l'ordre p et estimation de la dérive d'une diffusion.<br />Pour estimer le paramètre de dérive d'une diffusion ergodique observée à pas d, nous approximons la vraisemblance exacte de l'échantillon par celle d'un processus gaussien dont l'espérance conditionnelle est approchée à l'ordre d**p. L'estimateur obtenu est asymptotiquement biaisé. Ce biais est explicite et est de l'ordre de d**p. L'efficacité asymptotique est par ailleurs préservée à un facteur près. <br /><br />Chapitre 3 : Estimation du paramètre de dérive d'une diffusion sous des conditions d'irrégularité de la dérive.<br />Le problème étudié est l'analogue de celui étudié par Chan pour les AR à seuil (Threshold, Ann. Stat. 1993). Ici, le temps n'est plus discret mais continu. La dérive de la diffusion est continue, mais à dérivées discontinues en un seuil r. Le problème étudié est celui de l'estimation de ce seuil r. Si le pas d'observation d_n tend vers 0 et si T=n*d_n tend vers l'infini, l'estimateur des Moindres carrés (associé au schéma d'Euler ) de r est consistant. Si de plus n*(d_n)**3 tend vers 0, il y a normalité asymptotique à une vitesse standard. <br /><br />Chapitre 4 : Estimation d'un CAR(p) incomplètement observé à partir des équations de Yule-Walker.<br />Un travail de Hyndman (JTSA, 93) présente les équations de Yule-Walker pour un CAR(p), X, (qui est aussi une diffusion p-dimensionnelle, Y=(X, X(1),...,X(p-1))) et l'estimation des paramètres déduite sur la base de ces équations et de l'observation complète de Y (temps continu et observation des p-composantes de Y). Adoptant une méthodologie identique, nous étudions ce problème d'estimation lorsque l'on ne dispose que de l'observation de X, la première composante de Y, et ceci à des instants discrets (au pas d). Nous proposons <br />un estimateur convergent des paramètres à un biais près de l'ordre de d.<br /><br />Chapitre 5 : Precision of systematic sampling and transitive methods.<br />Nous proposons une méthode d'estimation dérivée des méthodes transitives utilisées notamment dans le domaine de la stéréologie. Cette méthode permet d'estimer l'écart quadratique moyen d'estimateurs empiriques construits à partir d'un échantillonnage systématique.
18

Estimation non-paramétrique de la distribution et densité de copules

Kadi, Nabil January 2014 (has links)
Les copules représentent un outil innovant pour modéliser la structure de dépendance de plusieurs variables aléatoires. Introduites par Sklar [1959] pour résoudre un problème de probabilité énoncé par Maurice Fréchet, les copules deviennent essentielles à l'appréhension de nombreux domaines d'application tels que l'hydrologie (Salvadori, De Michele, Kottegoda, et Rosso [2007]), les sciences actuarielles (Frees et Valdez [1998]), ou la finance (Cherubini, Vecchiato, et Luciano [2004]; Mc-Neil, Frey, et Embrechts [2005]). Le grand intérêt est qu'elles fournissent des expressions relativement simples des structures des dépendances liant les marges d'une loi multidimensionnelle. Plus précisément, pour le cas bidimensionnel, une copule C définie sur [0, 1] [indice supérieur 2], associée à une distribution F de marges uniformes F [indice inférieur 1] et F [indice inférieur 2], permet de représenter la fonction de répartition jointe F(x [indice inférieur 1], x [indice inférieur 2]) en fonction de ces marginales F [indice inférieur 1](x [indice inférieur 1]) et F [indice inférieur 2](x [indice inférieur 2]) par la relation : F(x [indice inférieur 1], x [indice inférieur 2]) = C(F [indice inférieur 1](x [indice inférieur 1]), F [indice inférieur 2](x [indice inférieur 2])). Cependant en pratique, la copule est inconnue, d'où l'utilité de l'estimer. Dans ce mémoire nous commençons par les définitions et les propriétés liées aux copules ainsi que les modèles paramétriques des copules. Ensuite nous présentons les différentes méthodes d'estimation: paramétriques, semi-paramétriques et non-paramétriques. Dans ce travail, on a étudié les propriétés asymptotiques d'un estimateur non-paramétrique basé sur les polynômes de Bernstein proposé par Sancetta & Satchell [2004]. Aussi, on a utilisé cet estimateur pour proposer un nouvel estimateur du tau de Kendall.
19

Évaluation et dépendance angulaire de l'estimateur Lagrangien en élastographie vasculaire non-intrusive

Mercure, Élizabeth January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
20

Estimateurs différentiels en géométrie discrète : Applications à l'analyse de surfaces digitales / Differential estimators in discrete geometry : Applications to digital surface analysis

Levallois, Jérémy 12 November 2015 (has links)
Les appareils d'acquisition d'image 3D sont désormais omniprésents dans plusieurs domaines scientifiques, dont l'imagerie biomédicale, la science des matériaux ou encore l'industrie. La plupart de ces appareils (IRM, scanners à rayons X, micro-tomographes, microscopes confocal, PET scans) produisent un ensemble de données organisées sur une grille régulière que nous nommerons des données digitales, plus couramment des pixels sur des images 2D et des voxels sur des images 3D. Lorsqu'elles sont bien récupérées, ces données approchent la géométrie de la forme capturée (comme des organes en imagerie biomédicale ou des objets dans l'ingénierie). Dans cette thèse, nous nous sommes intéressés à l'extraction de la géométrie sur ces données digitales, et plus précisément, nous nous concentrons à nous approcher des quantités géométriques différentielles comme la courbure sur ces objets. Ces quantités sont les ingrédients critiques de plusieurs applications comme la reconstruction de surface ou la reconnaissance, la correspondance ou la comparaison d'objets. Nous nous focalisons également sur les preuves de convergence asymptotique de ces estimateurs, qui garantissent en quelque sorte la qualité de l'estimation. Plus précisément, lorsque la résolution de l'appareil d'acquisition est augmenté, notre estimation géométrique est plus précise. Notre méthode est basée sur les invariants par intégration et sur l'approximation digitale des intégrations volumiques. Enfin, nous présentons une méthode de classification de la surface, qui analyse les données digitales dans un système à plusieurs échelles et classifie les éléments de surface en trois catégories : les parties lisses, les parties planes, et les parties singulières (discontinuités de la tangente). Ce type de détection de points caractéristiques est utilisé dans plusieurs algorithmes géométriques, comme la compression de maillage ou la reconnaissance d'objet. La stabilité aux paramètres et la robustesse au bruit sont évaluées en fonction des méthodes de la littérature. Tous nos outils pour l'analyse de données digitales sont appliqués à des micro-structures de neige provenant d'un tomographe à rayons X, et leur intérêt est évalué et discuté. / 3D image acquisition devices are now ubiquitous in many domains of science, including biomedical imaging, material science, or manufacturing. Most of these devices (MRI, scanner X, micro-tomography, confocal microscopy, PET scans) produce a set of data organized on a regular grid, which we call digital data, commonly called pixels in 2D images and voxels in 3D images. Properly processed, these data approach the geometry of imaged shapes, like organs in biomedical imagery or objects in engineering. In this thesis, we are interested in extracting the geometry of such digital data, and, more precisely, we focus on approaching geometrical differential quantities such as the curvature of these objects. These quantities are the critical ingredients of several applications like surface reconstruction or object recognition, matching or comparison. We focus on the proof of multigrid convergence of these estimators, which in turn guarantees the quality of estimations. More precisely, when the resolution of the acquisition device is increased, our geometric estimates are more accurate. Our method is based on integral invariants and on digital approximation of volumetric integrals. Finally, we present a surface classification method, which analyzes digital data in a multiscale framework and classifies surface elements into three categories: smooth part, planar part, and singular part (tangent discontinuity). Such feature detection is used in several geometry pipelines, like mesh compression or object recognition. The stability to parameters and the robustness to noise are evaluated with respect to state-of-the-art methods. All our tools for analyzing digital data are applied to 3D X-ray tomography of snow microstructures and their relevance is evaluated and discussed.

Page generated in 0.0565 seconds