• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 66
  • 17
  • Tagged with
  • 215
  • 137
  • 87
  • 50
  • 48
  • 42
  • 42
  • 40
  • 33
  • 30
  • 29
  • 27
  • 27
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Choix des poids de l'estimateur de vraisemblance pondérée par rééchantillonnage

Charlebois, Joanne January 2007 (has links)
No description available.
2

Exploration d'une nouvelle méthode d'estimation dans le processus de coalescence avec recombinaison

Massé, Hugues January 2008 (has links) (PDF)
L'estimation de paramètres génétiques est un problème important dans le domaine de la génétique mathématique et statistique. Il existe plusieurs méthodes s'attaquant à ce problème. Certaines d'entre elles utilisent la méthode du maximum de vraisemblance. Celle-ci peut être calculée à l'aide des équations exactes de Griffiths-Tavaré, équations de récurrence provenant du processus de coalescence. Il s'agit alors de considérer plusieurs histoires possibles qui relient les données de l'échantillon initial de séquences d'ADN à un ancêtre commun. Habituellement, certaines des histoires possibles sont simulées, en conjonction avec l'application des méthodes Monte-Carlo. Larribe et al. (2002) utilisent cette méthode (voir chapitre IV). Nous explorons une nouvelle approche permettant d'utiliser les équations de Griffiths-Tavaré de façon différente pour obtenir une estimation quasi exacte de la vraisemblance sans avoir recours aux simulations. Pour que le temps de calcul nécessaire à l'application de la méthode demeure raisonnable, nous devons faire deux compromis majeurs. La première concession consiste à limiter le nombre de recombinaisons permises dans les histoires. La seconde concession consiste à séparer les données en plusieurs parties appelées fenêtres. Nous obtenons ainsi plusieurs vraisemblances marginales que nous mettons ensuite en commun en appliquant le principe de vraisemblance composite. À l'aide d'un programme écrit en C++, nous appliquons notre méthode dans le cadre d'un problème de cartographie génétique fine où nous voulons estimer la position d'une mutation causant une maladie génétique simple. Notre méthode donne des résultats intéressants. Pour de très petits ensembles de données, nous montrons qu'il est possible de permettre un assez grand nombre de recombinaisons pour qu'il y ait convergence dans la courbe de vraisemblance obtenue. Aussi, il est également possible d'obtenir des courbes dont la forme et l'estimation du maximum de vraisemblance sont similaires à celles obtenues avec la méthode de Larribe et al. Cependant, notre méthode n'est pas encore applicable dans son état actuel parce qu'elle est encore trop exigeante en termes de temps de calcul. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Équations exactes de Griffiths-Tavaré, Paramètres génétiques, Processus de coalescence, Vraisemblance composite.
3

Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance / Modélisation semi-markovienne de la perte d'autonomie chez les personnes âgées : application à l'assurance dépendance

Biessy, Guillaume 28 November 2016 (has links)
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants. / A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population.
4

Descartes et l’éloquence de la vérité. Les héritages jésuite et humaniste / Descartes and Eloquence of the Truth. Jesuit and Humanist Heritages

Kubota, Shizuka 20 February 2012 (has links)
La philosophie de Descartes est-elle « une philosophie sans rhétorique »? L’on s’attendrait à ce que le principe de l’évidence qui requiert une transparence totale des idées refuse catégoriquement tout recours à l’art rhétorique fondé sur le vraisemblable et réputé faire obstacle à la vérité nue. Cependant, et malgré ses prises de position, Descartes, ancien élève des jésuites, ne renie pas l’héritage des litterae anciennes. Il s’agit de l’héritage rhétorique des humanistes de la Renaissance dans lequel les Pères jésuites ont considérablement puisé : la formation linguistique de Descartes est allée de pair avec un amour de l’éloquence dans son adolescence. Mais cette éloquence, originairement déployée dans un style d’apparat mu par l’enthousiasme, ne va pas chez le Descartes de l’âge mûr sans être guidée par le souci éthique de ne pas trahir la vérité. Derrière un voile transparent propre à transmettre cette vérité intacte, le philosophe tente à la fois de scruter son for intérieur et de s’insinuer discrètement dans l’esprit d’autrui. La rhétorique est ainsi un moyen indispensable pour donner corps au dialogue de la pensée et de l’écriture cartésiennes. / Is the philosophy of Descartes “a kind of philosophy without rhetoric”? We might expect that the principle of the evidence, which calls for a total transparency of the ideas, refuses categorically all recourses to the rhetorical art founded on the bounds of credibility and reputed to obstruct the bare truth. However, despite their captures of position, as an old student of the Jesuit, Descartes, doesn’t disown the heritage of the old litterae. It is important to point the rhetorical heritage of the Humanists from which the Jesuit Fathers have considerably drawn: the linguistic formation of Descartes has accompanied with a respect to the eloquence during his adolescence. But this eloquence, originally displayed in the sumptuous style driven by enthusiasm, doesn’t continue until his middle age without being guided by his ethical anxiety not to betray the truth. Behind a transparent veil proper to transmit this intact truth, the philosopher tries both to examine his deep mind and to creep into others’ spirits discreetly. The rhetoric is also an indispensable means in order to embody the dialogue of Cartesian thought and of writings.
5

Inférence pour des processus affines basée sur des observations à temps discret

Lolo, Maryam January 2009 (has links) (PDF)
Dans ce mémoire, on étudie la distribution empirique des estimateurs de vraisemblance maximale pour des processus affines, basés sur des observations à temps discret. On examine d'abord le cas où le processus est directement observable. Ensuite, on regarde ce qu'il advient lorsque seule une transformation affine du processus est observable, une situation typique dans les applications financières. Deux approches sont alors considérées: maximisation de la vraisemblance exacte ou maximisation d'une quasi-vraisemblance obtenue du filtre de Kalman. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Estimation de vraisemblance maximale, Processus affines, Obligation à l'escompte, Quasi-vraisemblance, Filtre de Kalman.
6

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
7

Logique du probable et épistémologie théologique dans les Essais de théodicée de Leibniz

Latour-Derrien, Annick January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
8

The credibility of simulation-based environments : user judgments of verisimilitude

Francis, Alexandre January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
9

Modélisation et estimation de variances hétérogènes dans les modèles non linéaires mixtes

Duval, Mylene 08 December 2008 (has links) (PDF)
Les modèles non linéaires occupent une place à part dans la méthodologie des modèles mixtes. Contrairement aux modèles linéaire et linéaire généralisés qui s'apparentent souvent à des boites noires, la fonction d'ajustement des données dans le cas non linéaire provient en général de l'intégration d'une équation différentielle ce qui confère à ces modèles une dimension "explicative" beaucoup plus riche et souvent plus parcimonieuse. D'autre part, l'estimation des paramètres y est difficile du fait de l'impossibilité d'une intégration analytique des effets aléatoires. Comme dans tous les modèles mixtes notamment ceux appliqués aux données longitudinales, ils permettent bien de prendre en compte la variabilité entre et intra unités expérimentales. Mais, là comme ailleurs, le statut des résidus supposés habituellement indépendants et identiquement distribués suivant une loi normale de variance homogène reste problématique car fréquemment irréaliste. L'objet de ce travail était de présenter quelques possibilités de modélisation de ces variances résiduelles qui prennent en compte la grande hétérogénéité potentielle de celles-ci, mais dans un souci délibéré d'économie vis-à-vis du nombre de nouveaux paramètres impliqués dans ces fonctions. C'est pourquoi, en sus de la relation classique moyenne-variance, nous avons opté pour une approche paramétrique de type "modèle mixte" sur les logvariances. Nous avons choisi une méthode d'inférence classique basée sur la théorie du maximum de vraisemblance et, dans ce cadre complexe, nous avons considéré un algorithme de type EM stochastique plus précisément l'algorithme dit SAEM-MCMC. La structure de modèle mixte à la fois sur les paramètres de position et de dispersion se prête particulièrement bien à la mise en oeuvre de ces algorithmes EM. La phase MCMC, a nécessité la mise au point et le calibrage de distributions instrumentales adaptées à cette situation ainsi que la définition de critères permettant de contrôler la convergence de l'algorithme. Le tout a été validé numériquement dans le cadre linéaire et non linéaire par comparaison à des algorithmes EM analytiques quand ils existaient (cas linéaire) ou à d'autres algorithmes numériques tels ceux basés sur la quadrature de Gauss. Ces techniques ont été illustrées par l'analyse de profils de comptage de cellules somatiques de vaches laitières. Plusieurs modèles linéaire et non linéaires sont comparés et montrent clairement l'intérêt d'une modélisation mixte des variances résiduelles.
10

Estimation et prévision améliorées du paramètre d'une loi binomiale

Nemiri, Ahmed 03 1900 (has links) (PDF)
Dans ce mémoire, on présente une étude sur l'estimation et la prévision du paramètre binomial. Le Chapitre 1 traite de l'estimation ponctuelle et de la prévision du paramètre binomial. En suivant l'approche de Brown (2008a), on commence ce chapitre par la description de six estimateurs : trivial, moyenne générale, Bayes empirique paramétrique avec la méthode des moments, Bayes empirique paramétrique avec la méthode du maximum de vraisemblance, Bayes empirique non paramétrique et James-Stein. Ensuite, on évalue ces estimateurs en se servant de la base de données de baseball 2005 de Brown (2008b) et on finit par la comparaison des performances de ces estimateurs entre elles, selon leurs écarts quadratiques totaux normalisés. Le Chapitre 2 traite de l'estimation par intervalle de confiance et de la prévision du paramètre binomial. Dans ce chapitre, on étudie cinq intervalles de confiance en suivant l'approche de Brown, Cai et DasGupta (1999) et (2001) : standard ICs, Wilson ICw, Agresti-Coull ICac, maximum de vraisemblance ICrv et Jeffreys bilatéral ICj. En premier, vu l'importance particulière de l'intervalle standard, on calcule théoriquement, avec un n modéré, la déviation du biais, de la variance et des coefficients d'asymétrie et d'aplatissement de la variable aléatoire Wn = (n1/2(p-p) / √pq) loi→ N (0,1) par rapport à leurs valeurs asymptotiques correspondantes 0, 1, 0 et 3. Ensuite, on approxime la probabilité de couverture et la longueur moyenne de chacun des cinq intervalles de confiance mentionnés plus haut par un développement d'Edgeworth d'ordres 1 et 2. Enfin, en se servant de la même base de données de baseball 2005, on détermine ces intervalles ainsi que leurs probabilités de couverture et leurs longueurs moyennes et on compare leurs performances entre elles, selon leurs probabilités de couverture et leurs longueurs moyennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimateur de Bayes empirique paramétrique, méthode des moments, méthode du maximum de vraisemblance, estimateur de Bayes empirique non paramétrique, estimateur de James-Stein, développement d'Edgeworth d'ordres 1 et 2, intervalle de Wald (standard), intervalle de Wilson , intervalle d'Agresti-Coull, intervalle du rapport de vraisemblance, intervalle de Jeffreys bilatéral, programmes en R.

Page generated in 0.3842 seconds