451 |
Approche neuro-mimétique au service du dépistage du cancer du seinNaoum, Hanae January 2009 (has links) (PDF)
Les méthodes de classification automatiques sont un outil important de nos jours pour identifier différentes données et étudier leurs propriétés. On retrouve aujourd'hui l'utilisation des réseaux de neurones en tant que classifieurs dans plusieurs domaines d'application, notamment, le dépistage du cancer du sein. En effet, dans cet axe de recherche, beaucoup de travaux ont été réalisés en employant une approche neuronale pour la reconnaissance de formes et ont abouti à des résultats intéressants. Ceci étant, chaque modèle de réseau de neurones diffère d'un autre de par ses paramètres expérimentaux, sa complexité d'implantation et son domaine d'applicabilité. Ainsi, chaque modèle possède ses avantages et ses inconvénients, faisant qu'il soit plus approprié pour une tâche donnée qu'un autre. Dans (Freeman 1987, Freeman et al., 1988) des expérimentations electrophysiologiques ont été réalisées sur des lapins prouvant l'existence de la dynamique chaotique dans les neurones réels. Depuis les années quatre-vingts, les réseaux de neurones chaotiques ont été le centre d'intérêt de plusieurs travaux en raison de leur dynamique complexe et leur application potentielle dans la dynamique associative, l'optimisation, et le traitement de l'information (Adachi et Aihara, 1997 ; Aihara et al., 1990 ; Tokuda et al., 1997). Dans cette optique, on s'intéresse dans ce travail à étudier la performance d'un modèle de réseau de neurones chaotique sur une tâche de classification reliée à la détection du cancer du sein. À cet effet, on procède dans un premier temps à la revue critique de certains travaux portant sur le sujet et qui ont été rapportés dans la littérature, de manière à situer le travail par rapport à ces travaux et mettre en évidence les contributions qu'il permet. Une étude comparative est ensuite établie où l'on met en avant les avantages d'utiliser une mémoire associative bidirectionnelle chaotique pour le travail de classification, relativement à deux modèles de réseau de neurones classiques, à savoir, une mémoire associative bidirectionnelle standard et un réseau multicouche à rétropropagation d'erreur.
|
452 |
Évaluation de méthodes de mise à l'échelle statistique : reconstruction des extrêmes et de la variabilité du régime de mousson au SahelParishkura, Dimitri January 2009 (has links) (PDF)
Deux méthodes de mise à l'échelle statistique sont évaluées sur une station située au Burkina Faso afin de générer une information climatique pertinente au niveau local, en terme de climat moyen et des principales caractéristiques de variabilité et d'extrême du régime de précipitation. Les deux méthodes de régression multi-linéaire SDSM et ASD analysées reposent sur le principe que des relations empiriques entre certaines variables atmosphériques à grande échelle issues des réanalyses ou des Modèles Climatiques globaux (MCGs), variables dénommées prédicteurs, et des paramètres climatiques locaux (ex. précipitation) peuvent être établies. En mode réanalyse, le travail a consisté, d'une part, à partir de variables synoptiques de NCEP, à analyser (i) l'intérêt d'utiliser une gamme plus vaste de prédicteurs dérivés et sur plus de niveaux verticaux dans l'atmosphère, et (ii) l'intérêt d'utiliser une sélection des prédicteurs sur une base mensuelle versus annuelle. D'autre part, en mode climat, à partir de variables synoptiques issues de deux MCGs (CGCM2 et HadCM3), l'évaluation a porté sur l'utilisation de ces modèles climatiques mondiaux afin de générer une information climatique plausible et utile à l'échelle locale dans le but ultime de générer des scénarios climatiques pertinents pour les études d'impacts en milieu sahélien. En mode réanalyse, le fait de considérer un plus vaste ensemble de prédicteurs et plus de niveaux atmosphériques, a permis de réduire les biais de l'ensemble des critères statistiques/climatiques comme la moyenne quotidienne, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes, et l'indice des dates de début, de fin et de longueur de mousson. De plus, avec cette nouvelle configuration, les deux modèles de mise à l'échelle sont en mesure de reconstruire une partie des changements observés dans le régime de précipitation (i.e. diminution de la quantité totale de pluie et de la fréquence du nombre d'événements pluvieux). Si dans la majorité des cas ASD performe mieux que SDSM avec un choix restreint de prédicteurs, les différences entre les modèles diminuent en utilisant un plus grand choix de prédicteurs, et en sélectionnant ceux-ci sur une base mensuelle. Dans ce dernier cas, les incertitudes sur la valeur médiane et la moyenne des indices de précipitation, notamment au coeur de la saison pluvieuse et à la fin de celle-ci, sont réduites par rapport aux autres simulations. Avec les prédicteurs des MCGs, notamment le modèle HadCM3, la simulation de l'ensemble des indices est systématiquement améliorée par rapport aux valeurs équivalentes issues des variables brutes des MCGs, aussi bien avec SDSM que ASD, notamment l'occurrence des jours de pluie, la variabilité intra-saisonnière, les indices d'intensité et d'extrêmes. Par contre l'utilisation des prédicteurs CGCM2 dans la mise à l'échelle statistique ne permet pas d'améliorer systématiquement tous les indices analysés par rapport aux données brutes de ce MCG. Quoi qu'il en soit, notre étude a permis de montrer qu'avec des prédicteurs relativement bien reproduits à grande échelle par les modèles globaux, les distributions quotidiennes de précipitation étaient plus plausibles à l'échelle locale, en dépit des difficultés à simuler adéquatement les extrêmes (i.e. largement surestimés surtout avec le CGCM2). Dans l'avenir, d'autres analyses devront inclure des prédicteurs des modèles globaux ou régionaux, telles que suggérés avec les réanalyses NCEP (i.e. autres niveaux, variables et résolution temporelle), ainsi qu'à l'aide d'autres méthodes non-linéaires en lien avec les particularités physiques à l'échelle régionale et locale. Ceci contribuera ultimement à générer des scénarios plus plausibles à ces échelles, d'autant que la mousson Ouest Africaine est influencée naturellement par des téléconnections variées à l'échelle globale et régionale. L'usage de cette information climatique pour des applications locales pourrait ainsi être amélioré, en lien avec les besoins des études d'impacts et de vulnérabilité dans le domaine agropastoral, humain et de la modélisation environnementale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : ASD, SDSM, NCEP, MCG, Variabilité interannuelle, Mousson ouest africaine, Prédicteurs, Indices de précipitations, Mise à l'échelle statistique.
|
453 |
Inférence pour des processus affines basée sur des observations à temps discretLolo, Maryam January 2009 (has links) (PDF)
Dans ce mémoire, on étudie la distribution empirique des estimateurs de vraisemblance maximale pour des processus affines, basés sur des observations à temps discret. On examine d'abord le cas où le processus est directement observable. Ensuite, on regarde ce qu'il advient lorsque seule une transformation affine du processus est observable, une situation typique dans les applications financières. Deux approches sont alors considérées: maximisation de la vraisemblance exacte ou maximisation d'une quasi-vraisemblance obtenue du filtre de Kalman. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Estimation de vraisemblance maximale, Processus affines, Obligation à l'escompte, Quasi-vraisemblance, Filtre de Kalman.
|
454 |
Le rôle du conseil d'administration dans la création de valeur pour les actionnaires : une étude canadienneSayumwe, Michel January 2006 (has links) (PDF)
La gouvernance corporative est de nos jours un sujet d'actualité. Cela nous a amené à nous intéresser à la question du rôle du conseil d'administration dans les entreprises publiques canadiennes. Nous avons pour cela voulu examiner la pertinence de certaines caractéristiques du conseil d'administration dans la création de valeur pour les actionnaires. Des quatorze normes de gouvernance en vigueur à la Bourse de Toronto au 31 décembre 2004, nous en avons extrait quelques unes que nous estimons appropriées aux fins de l'étude à savoir la taille du conseil, la fréquence annuelle des réunions, la proportion des administrateurs non reliés et la taille du comité de vérification. Nous avons également tenu compte d'autres informations comme la rémunération des administrateurs et la proportion du capital détenu par ces derniers. Enfin, aux six variables indépendantes faisant l'objet de nos six hypothèses, nous avons ajouté deux variables de contrôle qui sont le type de l'actionnariat et la séparation des postes de chef de la direction et de président du conseil. Nous avons testé six hypothèses dans un échantillon de cinquante quatre des plus grandes entreprises cotées à la Bourse de Toronto (TSX-60), à l'exception des banques. Notre étude couvre une période quinquennale allant de 2000 à 2004. Pour opérationnaliser la création de valeur par le conseil d'administration, nous nous sommes servis de deux modèles statistiques qui sont le modèle de la prime de marché dont la variable dépendante est le ratio market-to-book et le modèle de la valorisation boursière dont la variable dépendante est le cours boursier en vigueur trois mois après la fin d'exercice fiscal. Dans le premier modèle fondé sur la prime de marché, nos résultats nous indiquent que le pourcentage de la rémunération des administrateurs par rapport aux capitaux propres et le pourcentage des actions détenues sont positivement corrélés à la variable dépendante. La taille du conseil est quant à elle négativement corrélée à la prime de marché. Dans le modèle de la valorisation boursière, nous remarquons également que les trois variables ci-dessus sont statistiquement significatives et ce dans le même sens que le premier modèle. A cela s'ajoutent l'importance des administrateurs non reliés et l'absence de dualité qui sont négativement corrélées au cours boursier. Cette recherche confirme dans une certaine mesure la véracité des normes de gouvernance et l'intérêt des actionnaires à exiger leur respect par le conseil d'administration. Toutefois, l'importance des administrateurs non reliés devrait être interprétée avec prudence puisqu'elle peut être le reflet de la faiblesse de performance des entreprises durant les années antérieures dont la tendance est de remplacer certains administrateurs reliés par ceux non reliés. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Conseil d'administration, Création de valeur, Valorisation boursière, Gouvernance, Prime de marché, Théorie de l'agence.
|
455 |
Introduction des effets fixes dans un modèle binomial négatif : application à la consommation de médicaments au CanadaAmmour, Boubekeur Seddik January 2010 (has links) (PDF)
Dans ce travail, nous modélisons le nombre de médicaments consommés par les Canadiens en estimant deux modèles de données de comptage en panel. Les données incluent des observations effectuées sur 17 276 individus entre 1994 et 2007. Les modèles de Poisson et binomial négatif à effets fixes sont donc estimés afin de contrôler pour les effets individuels non observés. Allison et Waterman (2002) ont démontré que le modèle binomial négatif conditionnel à effets fixes proposé par Hausman, Hall and Griliches (1984) ne contrôle pas vraiment pour les effets fixes étant donné que le modèle inclut des régresseurs individuels fixes. Malgré cette argumentation, l'estimation de ce modèle, effectuée avec le progiciel Stata en utilisant les données de l'enquête nationale sur la santé de la population au Canada (ENSP), fournit des résultats presque identiques à ceux obtenus avec l'estimation du modèle de Poisson à effets fixes. En effet, une partie de la corrélation de certaines variables explicatives avec l'hétérogénéité inobservée n'existe plus lorsque nous estimons le modèle à effets fixes, comparativement aux modèles à effets aléatoires. Cela fait radicalement changer les effets individuels et prouve alors l'importance de contrôler pour les effets fixes. Wooldridge propose un modèle similaire au modèle binomial négatif à effets fixes. Celui-ci permet de contrôler et d'interpréter les effets du modèle binomial négatif à effets fixes en estimant les effets fixes à l'aide des moyennes des variables explicatives, qui seront introduites dans le modèle binomial négatif. Nous n'aurons donc plus besoin d'utiliser la commande Xtnbreg avec l'option FE (qui s'est révélée non performante) car le modèle alternatif de Wooldridge s'estime en utilisant les options RE ou GEE. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression de Poisson, Binomial négatif, Effets fixes, Effets aléatoires.
|
456 |
Morale fiscale : une étude empirique pour l'Amérique latinePadilla, Juliana January 2010 (has links) (PDF)
Afin d'évaluer les systèmes de taxation, développer et intégrer des nouvelles politiques de taxation, il est important de tenir compte du phénomène de l'évasion fiscale. Il est nécessaire de comprendre qui paye ou ne paye pas les impôts et pourquoi. L'évasion fiscale a été analysée dans la théorie économique comme un problème individuel de maximisation de l'utilité sous incertitude. Dans ce contexte, le modèle standard de l'évasion fiscale suppose que les individus prennent la décision d'éluder ou de ne pas le faire en tenant compte des gains matériaux que chaque action représente et des niveaux d'aversion au risque. Ce modèle standard présente plusieurs défaillances car il prédit des taux d'évasion plus élevés que dans la réalité. En effet, la question n'est pas pourquoi les individus éludent leurs taxes mais pourquoi ils ne le font pas assez. Une des principales critiques du modèle standard est le fait d'ignorer les considérations éthiques et morales qui sont présentes dans la décision d'éluder. Diverses études ont montré que les individus ont une moralité qui les empêche d'éluder leurs impôts même si cette dernière action représente un gain matériel. Ce travail vise à analyser les déterminants de cette moralité fiscale dans les pays de l'Amérique Latine. Un intérêt particulier est donné aux variables liées à la perception de l'individu par rapport au système social et politique. En général les résultats montrent que la satisfaction envers le gouvernement, envers les autres individus et une perception négative du niveau de corruption influencent positivement la morale fiscale.
|
457 |
Algorithmes de recherche pour sélection de modèlesMotoc, Claudiu Mircea 11 1900 (has links) (PDF)
Dans ce mémoire, nous nous intéressons à des algorithmes de sélection de modèles dans un contexte de régression linéaire et logistique. Nous expliquons premièrement les notions de régression linéaire et logistique et deux critères de sélection, AIC et BIC. Ensuite, nous faisons une revue des aspects théoriques des algorithmes les plus connus en détaillant deux d'entre eux, Leaps and Bounds et Occam’s Window. Pour ces deux derniers, nous présentons aussi les détails pratiques des logiciels qui font leur implantation. La partie finale est consacrée à l'étude des trois méthodes de sélection des modèles basées sur les algorithmes Leaps and Bounds, Occam’s Window et sur une combinaison entre les deux, en utilisant la technique du moyennage de modèles. Nous présentons les performances de prédiction calculées à l'aide de la technique de validation croisée et les temps d'exécution de ces trois méthodes pour plusieurs jeux de données.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : sélection de modèles, moyennage de modèles, régression linéaire, régression logistique, AIC, BIC, algorithme Leaps and Bounds, algorithme Occam’s Window, validation croisée.
|
458 |
Etude de mise en forme de pièces rechargées par forgeage à chaudRafiq, Muhammad 15 December 2011 (has links) (PDF)
Le travail de thèse présenté est dédié à la mise en forme des pièces rechargées. L'idée initiale est d'inverser la gamme de fabrication " conventionnelle " consistant à recharger une pièce pré-ébauchée en faisant la mise en forme d'un " lopin " préalablement rechargé. Les avantages escomptés de cette gamme vient dans un premier temps de ce qu'on recharge une forme simple. Ceci devrait faciliter l'automatisation du rechargement et également le amélioration les structures métallurgiques de solidification issues du soudage. Les travaux concernent dans un premier temps la mise en place d'une méthodologie pour la maîtrise de l'opération de rechargement sur des formes simples pour mettre en place le lien entre le taux de dilution, l'énergie nominale de soudage et la qualité métallurgique des revêtements obtenus. Dans un deuxième temps, le travail s'est concentré sur l'étude du comportement en mise en forme des pièces rechargées. La difficulté provient du fait que le comportement du revêtement n'est pas connu. Deux essais de caractérisation ont été étudiés, le pliage à chaud et l'essai d'écrasement. Cette étude a consisté à estimer leur aptitude à évaluer la forgeabilité d'un multi matériaux concernant les trois échelles de forgeabilité: l'échelle du revêtement correspondant au comportement rhéologique du matériau du revêtement incluant sa limite de ductilité à chaud, l'échelle du revêtement incluant le revêtement et la partie proche du substrat et l'échelle de la pièce. Les simulations à partir de modèle analytique ou numérique par éléments finis ainsi que les essais expérimentaux ont permis d'évaluer la forgeabilité du bi-matériau. Les essais expérimentaux de forgeabilité devront également caractériser les transformations métallurgiques se produisant dans le revêtement et le substrat pour qualifier et quantifier le gain potentiel.
|
459 |
Essais en finance internationaleZhang, Lin January 2009 (has links) (PDF)
Cette thèse traite trois questions en finance internationale: (i) les effets du défaut partiel relatif à la dette souveraine sur le partage du risque international, (ii) la coordination
imparfaite avec des créanciers multiples asymétriquement informés et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine, et (iii) le rendement empirique d'un modèle pour une petite économie ouverte avec l'indexation de salaire partiel lorsque les coûts de ressources entraînés par les dispersions des prix et des salaires sont considérés. Le chapitre l introduit le défaut partiel dans un modèle de deux pays afin de résoudre l'anomalie relative aux corrélations croisées de la consommation. Principalement, les modèles standard de cycles réels internationaux génèrent des corrélations croisées de la consommation qui sont plus élevées que celles de l'output, tandis que dans les données l'opposé est vrai. Le défaut partiel est introduit en supposant qu'un pays défaillant est exclu temporairement à l'accès aux marchés financiers internationaux, et a la possibilité de renégocier ses dettes. Le modèle généralise la sanction d'exclusion permanente au cas de défaut utilisée dans les modèles de cycles réels internationaux avec des marchés incomplets endogènes. Dans ces modèles, bien que le partage du risque international soit davantage réduit, l'anomalie liée aux corrélations croisées de la consommation reste irrésolue. De plus, la menace d'exclusion n'est ni crédible dans un contexte de finance globalisée, ni cohérente avec les faits observés que le défaut est plutôt partiel que complet, et que les emprunteurs souverains peuvent emprunter après les défauts. Les résultats démontrent que: (i) la différence entre la corrélation croisée de la consommation et celle de l'output est décroissante par rapport au nombre de périodes d'exclusion; (ii) le modèle avec défaut partiel peut générer la différence qui concorde bien avec celle dans les données. Le chapitre II analyse la coordination imparfaite avec des créanciers multiples dans un jeu global et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine. Des créanciers plus informés ou plus optimistes réduisent-ils la vulnérabilité d'un projet à la ruée des créanciers? Pour répondre à cette question, nous développons un modèle dans lequel un grand créancier et un continuum de petits créanciers indépendamment décident de reéchelonner la dette ou de liquider à la base de leurs informations privées sur la liquidité de l'emprunteur et la rentabilité du projet jusqu'à sa maturité. Nos résultats montrent qu'une amélioration de la qualité des informations
ou une perception plus optimiste sur la rentabilité du projet de la part du grand créancier augmente la volonté de reéchelonner leurs dettes des petits créanciers, et donc réduit la probabilité de défaut du projet. Au niveau national, le problème de coordination est souvent résolu par la cour sur la faillite, tandis que dans un contexte international, telle institution supranationale n'existe pas. Le modèle développé dans ce chapitre permet d'évaluer les mécanismes conçus pour résoudre le problème de coordination relatif à la dette souveraine. Nous proposons également un mécanisme qui génère le même résultat qu'une cour nationale sur la faillite. Le chapitre III développe un modèle d'une petite économie ouverte dans lequel l'indexation partielle est permise, et l'estime avec les données canadiennes utilisant les techniques d'estimation Bayésienne. Les travaux empiriques avec les modèles d'équilibre général stochastique et dynamique tels que Christiano, Eichenbaum et Evans (2005) imposent que les salaires et les prix non-ajustés sont complètement indexés à l'inflation retardée. Cette spécification a l'avantage de concorder avec l'inflation positive tendancielle observée dans les données sans nécessiter de considérer les coûts de ressources entraînés par les dispersions des prix et des salaires. Pourtant, l'évidence empirique pour appuyer cette spécification est manquante. Par contre, la base de données sur les conventions collectives au Canada montre que seulement une petite proportion de contrats de travail contient des clauses d'indexation aux coûts de la vie. Les résultats montrent que: (i) les salaires sont partiellement indexés à l'inflation retardée; (ii) le rendement empirique décroit avec une version du modèle dans lequel les salaires sont complètement indexés à l'inflation retardée; (iii) le modèle avec indexation partielle capte bien la dynamique de l'économie canadienne. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Cycles réels internationaux, Défaut partiel, Coordination, Dette souveraine, Petite économie ouverte, Inférence Bayésienne.
|
460 |
Generalized empirical likelihood for a continuum of moment conditionsChaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
|
Page generated in 0.0871 seconds