• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 37
  • 8
  • Tagged with
  • 154
  • 74
  • 36
  • 33
  • 26
  • 22
  • 20
  • 18
  • 18
  • 18
  • 16
  • 15
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Enseignement introductif de l'algèbre et validation

Barallobres, Gustavo January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
22

Validation empirique des indicateurs de pression hygiénique animale

Bergeron, Luc January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
23

Prise en compte de barrages-réservoirs dans un modèle global pluie-débit

Payan, Jean-Luc 05 March 2007 (has links) (PDF)
Les bassins versants influencés par la présence de barrages-réservoirs constituent les objets d'étude de cette thèse. L'objectif principal est de mettre au point une méthode de prise en compte, au sein d'un modèle pluie-débit global, de l'impact de retenues d'eau artificielles sur le comportement hydrologique du bassin versant. Un tel outil, simple dans sa conception, doit permettre d'améliorer la simulation des débits de bassins versants influencés et d'évaluer l'impact de barrages-réservoirs sur le régime hydrologique des cours d'eau, en particulier lorsque l'on se place loin à l'aval de l'ouvrage. La démarche adoptée est empirique dans le sens où l'on a cherché, sur une base de données de 46 bassins versants situés en France, aux Etats-Unis et au Brésil, à exploiter au mieux, dans la structure du modèle pluie-débit, une information simple sur les ouvrages, à savoir l'évolution temporelle des volumes stockés dans les retenues. La diversité des conditions hydro-climatiques présentes dans la base de données donne aux résultats obtenus un caractère assez général. Au cours de cette thèse, un grand nombre de solutions de prise en compte des barrages-réservoirs a été testé. Les résultats montrent que cette information sur les remplissages des ouvrages peut être utilement exploitée au sein d'une structure de modèle global pour améliorer la simulation des bassins influencés. Les solutions qui se sont révélées être les plus performantes n'engendrent pas de complexification de la structure initiale du modèle puisqu'aucun ajout de paramètre n'a été nécessaire. Des gains de performances significatifs ont été réalisés, en particulier sur la simulation des étiages. Il s'agit d'un résultat important de la thèse car il montre qu'il est possible de prendre explicitement en compte, dans un modèle pluie-débit global, les barrages-réservoirs présents sur le bassin versant. Nous avons ensuite essayé de comprendre le lien entre la méthode de prise en compte des barrages-réservoirs et certaines caractéristiques physiques des bassins versants et des ouvrages de stockage afin de tenter d'adapter la solution au bassin versant considéré. Les résultats de ces tests ont montré que ce lien est difficile à mettre en évidence et qu'à ce stade, une solution générique semble la plus efficace. La solution la plus performante a ensuite été évaluée sur un échantillon complémentaire de 31 bassins versants n'ayant pas servi à son développement. L'évaluation a confirmé l'intérêt de la méthode pour l'amélioration des simulations des débits mais a également montré sa sensibilité à la disponibilité des données de stockages ainsi qu'aux transferts interbassins inconnus.
24

Etude théorique de l'oxydation de la face (100) du silicium par l'eau

Favaro, Laurent 08 October 2003 (has links) (PDF)
L'utilisation de différents niveaux de complexité dans les méthodes de la chimie théorique permet de discuter de la validité des modèles de reconstruction de la surface Si(100) et de créer des modèles de sous-oxydes. Notre étude ab-initio Hartree-Fock périodique est en faveur d'une reconstruction symétrique combinée à un arrangement anti-ferromagnétique 2x2 des spins des électrons des liaisons pendantes. Néanmoins la reconstruction asymétrique est quasi isoénergétique. Le traitement d'un large modèle moléculaire de sous-oxydes pseudo-périodique, permet de rendre compte des contraintes de la surface. L'importante relaxation trouvée dans cette étude est la combinaison d'une translation verticale et d'une rotation. Le réseau, la valence des espèces présentes peut influencer la cinétique de la relaxation. Le premier site d'oxydation est la liaison du dimère. Les atomes de silicium sont ensuite oxydés un par un.
25

Les champs aléaotoires à longue mémoire

Lavancier, Frédéric 12 December 2005 (has links) (PDF)
Nous étudions des champs aléatoires sur le réseau Z^d. Ils sont supposés stationnaires, du second ordre et à longue mémoire, propriété due à la non sommabilité de leur fonction de covariance. Contrairement aux travaux antérieurs, leur longue mémoire peut être non isotrope. Lorsque ces champs sont linéaires, nous obtenons la convergence fonctionnelle de leurs sommes partielles. A partir de ce résultat, nous proposons une procédure pour tester la faible dépendance contre la forte dépendance d'un champ. Nous montrons par ailleurs la dégénérescence asymptotique du processus empirique de champs à longue mémoire ; les applications concernent notamment la convergence des U-statistiques. Nous étudions enfin certaines formes quadratiques de champs à longue mémoire. Cela nous permet d'obtenir en application la loi limite des covariances empiriques et constitue une première étape dans l'étude de l'estimateur de Whittle des paramètres de longue mémoire d'un champ.
26

Lois fonctionnelles limites uniformes pour les accroissements généralisésdu procesus empirique. Lois fonctionnelle limites de type Chung-Mogulskii pour le processus empirique uniforme local

Varron, Davit 14 December 2004 (has links) (PDF)
Nous appelons accroissements généralisés du processus empirique l'estimateur à noyau de la densité centré sur R^d pour lequel le noyau varie dans une classe de fonctions G. Ceci définit des processus stochastiques indéxés par G. Nous étudions le comportement limite de ces trajectoires aléatoires en considérant une suite de taille de fenêtre h_n qui tend vers 0. Nous donnons des résultats limites fonctionnels lorsque h_n vérifie les conditions de Csörgö-Révész-Stute, puis lorsque h_n vérifie les conditions d'Erdös-Renyi. Nous étudions également quelques comportements au second ordre dans les lois limites fonctionnelles standard du logarithme itéré pour le processus empirique uniforme local.
27

Estimation par Minimum de Contraste Régulier et Heuristique de Pente en Sélection de Modèles

Saumard, Adrien 22 October 2010 (has links) (PDF)
Cette thèse est consacrée à l'étude théorique d'une méthode de calibration automatique des pénalités en sélection de modèles. Cette méthode se base sur une heuristique, appelée "heuristique de pente", qui stipule l'existence d'une pénalité minimale telle que la solution optimale du problème de pénalisation vaut deux fois celle-ci. En pratique, on estime la pénalité optimale en estimant préalablement la pénalité minimale, caractérisée par un changement brutal dans le comportement de la procédure de sélection de modèles autour de ce seuil de pénalisation. L'analyse théorique du phénomène de pente se base sur un contrôle à la constante près des déviations de l'excès de risque et de l'excès de risque empirique des estimateurs considérés, mesurant respectivement leur performance en prédiction et leur performance empirique. Ceci suggère en premier lieu, une forte spécification de la structure du problème étudié. Nous validons l'heuristique de pente dans un cadre général qui s'articule autour d'une notion nouvelle en M-estimation, que nous appelons "contraste régulier", et nous développons une méthodologie de preuve inédite, permettant de traiter à la fois la question des bornes supérieures et des bornes inférieures de déviation des excès de risque à modèle fixé. Nous retrouvons ainsi la plupart des résultats déjà connus sur l'heuristique de pente. En effet, nous donnons trois exemples d'estimation par minimum de contraste régulier, à savoir la régression par moindres carrés sur des modèles linéaires, l'estimation de la densité par moindres carrés sur des modèles affines et l'estimation de la densité par maximum de vraisemblance sur des ensembles convexes. Ceci nous permet d'étendre les résultats précédemment établis dans le cas de la régression à des modèles plus généraux et de valider l'heuristique de pente pour un risque non quadratique en considérant le cas de l'estimation par maximum de vraisemblance. Enfin, notre méthodologie de preuve fournit des pistes précises de recherche pour des situations non régulières, comme on en trouve en classification ou plus généralement en théorie de l'apprentissage statistique.
28

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
29

Méthodes numériques e fficaces pour la valorisation des GMWB

Ben Zineb, Tarik 14 December 2012 (has links) (PDF)
Cette thèse traite du problème de valorisation par des méthodes numériques efficaces de contrats GMWB dans une optique de calcul par formules fermées ou par méthode de Monte Carlo sous contrainte de faible nombre de simulations. Les produits GMWB sont des produits très complexes qui ont connu ces dernières années un grand succès de par la garantie dont bénéficie l'assuré sur les retraits futurs avec un effet upside dépendant de la performance du fond sous-jacent au contrat. En outre, le souscripteur dispose de nombreuses options attrayantes qu'il peut exercer à tout moment dont l'option de racheter partiellement ou totalement son contrat, la possibilité de modifier l'allocation de la prime payée (fund switching) pendant la durée du contrat et enfin l'option d'avancer ou de reporter la date de début des paiements. Cependant, de telles options cumulées avec la complexité du produit et les risques de marché et de mortalité exposent l'assureur qui doit gérer des dizaines de milliers de contrats sous plusieurs contraintes opérationnelles (temps de calcul,faible nombre de simulation, etc.) à une difficulté majeure en terme de valorisation et de couverture. Une grande partie de cette thèse (chapitres de 2, 4, 5 et 6) est consacrée à l'étude de l'option de rachat partiel ou total dans les contrats GMWB selon deux angles : le point de vue assuré rationnel et le point de vue couvreur appréhendant le pire cas. A ce propos, dans notre cadre général en temps discret avec une volatilité locale et taux d'intérêt à la Hull-White 1 facteur, la stratégie optimale déterminant le coût du contrat dans les deux cas est la solution d'un problème de contrôle stochastique optimal en temps discret. Néanmoins, grâce à une propriété d'homogénéité partielle sur le prix et les flux, on démontre qu'elle est explicite et de type Bang-Bang. Le problème de valorisation étant ainsi ramené à celui d'arrêt optimal , nous avons proposé une méthode de Monte Carlo de type Longstaff Schwartz dont l'étape de régression empirique a été traitée par la méthode de moindres carrés habituels et par une nouvelle méthode appelée VCP (Variables de contrôle préliminaires). Cette dernière consiste dans un premier temps à réduire la variance empirique des flux à régresser à travers une projection L2 sur des variables de contrôle adaptées et centrées, et puis à faire la régression par moindres carrées habituels sur les nouveaux flux à variance réduite. Une étude numérique sur un cas test ainsi qu'une quantification théorique de l'erreur par les techniques de régression non paramétriques ont conclu à son efficacité dans un contexte de faible nombre de simulation (contrainte d'Axa). Quant au chapitre 3, il est consacré à justifier numériquement et théoriquement l'hypothèse de mutualisation du risque de mortalité souvent supposée par les praticiens dans le cas américain sur un produit simple sensible à ce risque. Enfin, la dernière partie de la thèse (chapitre 7) est consacrée à la valorisation par formules fermées approchées pour des contrats GMWB simplifiés dans un modèle Black Scholes avec taux d'intérêt de dynamique Hull-White à 1 facteur. En effectuant un développement asymptotique sur le montant des retraits, on obtient des formules approchées du prix du contrat GMWB par un prix Black-Scholes corrigé par une somme explicite de Grecques, le tout étant plus rapide à évaluer. Des estimations d'erreur sont établies lorsque la fonction payoff est régulière. La précision des formules asymptotiques est testée numériquement et montre un excellent comportement de ces approximations, même pour des contrats à longue maturité (20 ans).
30

Les représentations de transplanteurs autour de la question du don altruiste dans deux contextes culturels : entretiens avec des médecins transplanteurs français et québécois

Fortin, Marie-Chantal January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Page generated in 0.0498 seconds