• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 945
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1531
  • 381
  • 293
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Morale fiscale : une étude empirique pour l'Amérique latine

Padilla, Juliana January 2010 (has links) (PDF)
Afin d'évaluer les systèmes de taxation, développer et intégrer des nouvelles politiques de taxation, il est important de tenir compte du phénomène de l'évasion fiscale. Il est nécessaire de comprendre qui paye ou ne paye pas les impôts et pourquoi. L'évasion fiscale a été analysée dans la théorie économique comme un problème individuel de maximisation de l'utilité sous incertitude. Dans ce contexte, le modèle standard de l'évasion fiscale suppose que les individus prennent la décision d'éluder ou de ne pas le faire en tenant compte des gains matériaux que chaque action représente et des niveaux d'aversion au risque. Ce modèle standard présente plusieurs défaillances car il prédit des taux d'évasion plus élevés que dans la réalité. En effet, la question n'est pas pourquoi les individus éludent leurs taxes mais pourquoi ils ne le font pas assez. Une des principales critiques du modèle standard est le fait d'ignorer les considérations éthiques et morales qui sont présentes dans la décision d'éluder. Diverses études ont montré que les individus ont une moralité qui les empêche d'éluder leurs impôts même si cette dernière action représente un gain matériel. Ce travail vise à analyser les déterminants de cette moralité fiscale dans les pays de l'Amérique Latine. Un intérêt particulier est donné aux variables liées à la perception de l'individu par rapport au système social et politique. En général les résultats montrent que la satisfaction envers le gouvernement, envers les autres individus et une perception négative du niveau de corruption influencent positivement la morale fiscale.
412

Algorithmes de recherche pour sélection de modèles

Motoc, Claudiu Mircea 11 1900 (has links) (PDF)
Dans ce mémoire, nous nous intéressons à des algorithmes de sélection de modèles dans un contexte de régression linéaire et logistique. Nous expliquons premièrement les notions de régression linéaire et logistique et deux critères de sélection, AIC et BIC. Ensuite, nous faisons une revue des aspects théoriques des algorithmes les plus connus en détaillant deux d'entre eux, Leaps and Bounds et Occam’s Window. Pour ces deux derniers, nous présentons aussi les détails pratiques des logiciels qui font leur implantation. La partie finale est consacrée à l'étude des trois méthodes de sélection des modèles basées sur les algorithmes Leaps and Bounds, Occam’s Window et sur une combinaison entre les deux, en utilisant la technique du moyennage de modèles. Nous présentons les performances de prédiction calculées à l'aide de la technique de validation croisée et les temps d'exécution de ces trois méthodes pour plusieurs jeux de données. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : sélection de modèles, moyennage de modèles, régression linéaire, régression logistique, AIC, BIC, algorithme Leaps and Bounds, algorithme Occam’s Window, validation croisée.
413

Etude de mise en forme de pièces rechargées par forgeage à chaud

Rafiq, Muhammad 15 December 2011 (has links) (PDF)
Le travail de thèse présenté est dédié à la mise en forme des pièces rechargées. L'idée initiale est d'inverser la gamme de fabrication " conventionnelle " consistant à recharger une pièce pré-ébauchée en faisant la mise en forme d'un " lopin " préalablement rechargé. Les avantages escomptés de cette gamme vient dans un premier temps de ce qu'on recharge une forme simple. Ceci devrait faciliter l'automatisation du rechargement et également le amélioration les structures métallurgiques de solidification issues du soudage. Les travaux concernent dans un premier temps la mise en place d'une méthodologie pour la maîtrise de l'opération de rechargement sur des formes simples pour mettre en place le lien entre le taux de dilution, l'énergie nominale de soudage et la qualité métallurgique des revêtements obtenus. Dans un deuxième temps, le travail s'est concentré sur l'étude du comportement en mise en forme des pièces rechargées. La difficulté provient du fait que le comportement du revêtement n'est pas connu. Deux essais de caractérisation ont été étudiés, le pliage à chaud et l'essai d'écrasement. Cette étude a consisté à estimer leur aptitude à évaluer la forgeabilité d'un multi matériaux concernant les trois échelles de forgeabilité: l'échelle du revêtement correspondant au comportement rhéologique du matériau du revêtement incluant sa limite de ductilité à chaud, l'échelle du revêtement incluant le revêtement et la partie proche du substrat et l'échelle de la pièce. Les simulations à partir de modèle analytique ou numérique par éléments finis ainsi que les essais expérimentaux ont permis d'évaluer la forgeabilité du bi-matériau. Les essais expérimentaux de forgeabilité devront également caractériser les transformations métallurgiques se produisant dans le revêtement et le substrat pour qualifier et quantifier le gain potentiel.
414

Essais en finance internationale

Zhang, Lin January 2009 (has links) (PDF)
Cette thèse traite trois questions en finance internationale: (i) les effets du défaut partiel relatif à la dette souveraine sur le partage du risque international, (ii) la coordination imparfaite avec des créanciers multiples asymétriquement informés et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine, et (iii) le rendement empirique d'un modèle pour une petite économie ouverte avec l'indexation de salaire partiel lorsque les coûts de ressources entraînés par les dispersions des prix et des salaires sont considérés. Le chapitre l introduit le défaut partiel dans un modèle de deux pays afin de résoudre l'anomalie relative aux corrélations croisées de la consommation. Principalement, les modèles standard de cycles réels internationaux génèrent des corrélations croisées de la consommation qui sont plus élevées que celles de l'output, tandis que dans les données l'opposé est vrai. Le défaut partiel est introduit en supposant qu'un pays défaillant est exclu temporairement à l'accès aux marchés financiers internationaux, et a la possibilité de renégocier ses dettes. Le modèle généralise la sanction d'exclusion permanente au cas de défaut utilisée dans les modèles de cycles réels internationaux avec des marchés incomplets endogènes. Dans ces modèles, bien que le partage du risque international soit davantage réduit, l'anomalie liée aux corrélations croisées de la consommation reste irrésolue. De plus, la menace d'exclusion n'est ni crédible dans un contexte de finance globalisée, ni cohérente avec les faits observés que le défaut est plutôt partiel que complet, et que les emprunteurs souverains peuvent emprunter après les défauts. Les résultats démontrent que: (i) la différence entre la corrélation croisée de la consommation et celle de l'output est décroissante par rapport au nombre de périodes d'exclusion; (ii) le modèle avec défaut partiel peut générer la différence qui concorde bien avec celle dans les données. Le chapitre II analyse la coordination imparfaite avec des créanciers multiples dans un jeu global et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine. Des créanciers plus informés ou plus optimistes réduisent-ils la vulnérabilité d'un projet à la ruée des créanciers? Pour répondre à cette question, nous développons un modèle dans lequel un grand créancier et un continuum de petits créanciers indépendamment décident de reéchelonner la dette ou de liquider à la base de leurs informations privées sur la liquidité de l'emprunteur et la rentabilité du projet jusqu'à sa maturité. Nos résultats montrent qu'une amélioration de la qualité des informations ou une perception plus optimiste sur la rentabilité du projet de la part du grand créancier augmente la volonté de reéchelonner leurs dettes des petits créanciers, et donc réduit la probabilité de défaut du projet. Au niveau national, le problème de coordination est souvent résolu par la cour sur la faillite, tandis que dans un contexte international, telle institution supranationale n'existe pas. Le modèle développé dans ce chapitre permet d'évaluer les mécanismes conçus pour résoudre le problème de coordination relatif à la dette souveraine. Nous proposons également un mécanisme qui génère le même résultat qu'une cour nationale sur la faillite. Le chapitre III développe un modèle d'une petite économie ouverte dans lequel l'indexation partielle est permise, et l'estime avec les données canadiennes utilisant les techniques d'estimation Bayésienne. Les travaux empiriques avec les modèles d'équilibre général stochastique et dynamique tels que Christiano, Eichenbaum et Evans (2005) imposent que les salaires et les prix non-ajustés sont complètement indexés à l'inflation retardée. Cette spécification a l'avantage de concorder avec l'inflation positive tendancielle observée dans les données sans nécessiter de considérer les coûts de ressources entraînés par les dispersions des prix et des salaires. Pourtant, l'évidence empirique pour appuyer cette spécification est manquante. Par contre, la base de données sur les conventions collectives au Canada montre que seulement une petite proportion de contrats de travail contient des clauses d'indexation aux coûts de la vie. Les résultats montrent que: (i) les salaires sont partiellement indexés à l'inflation retardée; (ii) le rendement empirique décroit avec une version du modèle dans lequel les salaires sont complètement indexés à l'inflation retardée; (iii) le modèle avec indexation partielle capte bien la dynamique de l'économie canadienne. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Cycles réels internationaux, Défaut partiel, Coordination, Dette souveraine, Petite économie ouverte, Inférence Bayésienne.
415

Generalized empirical likelihood for a continuum of moment conditions

Chaussé, Pierre 02 1900 (has links) (PDF)
Dans cette thèse, je propose une généralisation de la méthode de vraisemblance empirique généralisée (GEL) pour permettre la possibilité d'avoir soit un très grand nombre de conditions de moment ou des conditions définies sur un continuum. Cette généralisation peut permettre par exemple d'estimer des modèles de régression avec régresseurs endogènes pour lesquels le nombre d'instruments est très élevé ou encore que la relation entre les régresseurs et les variables exogènes est inconnue. Il est également possible de baser notre estimation sur des conditions de moment construites à partir de fonctions caractéristiques. Il devient alors possible d'estimer les coefficients d'une distribution quelconque ou d'un processus stochastique lorsque sa fonction de vraisemblance n'admet pas de forme analytique. C'est le cas entre autres de la distribution stable et de la plupart des processus de diffusion exprimés en temps continu. Cette généralisation a été proposée par (Carrasco and Florens, 2000) pour la méthode des moments généralisés (CGMM). Sur la base des résultats de (Newey and Smith, 2004), qui démontrent la supériorité asymptotique de GEL sur GMM, la méthode que je propose représente donc une contribution substantielle. La thèse est divisée en trois chapitres. Le premier présente en détails la méthode de vraisemblance empirique généralisée pour un continuum de moments (CGEL), démontre la convergence en probabilité et en distribution de ses estimateurs et décrit la procédure à suivre en pratique pour estimer les coefficients du modèle à l'aide d'une approche matricielle relativement simple. De plus, je démontre l'équivalence asymptotique de CGEL et CGMM. CGEL est en fait un algorithme non-linéaire régularisé à la Tikhonov, qui permet d'obtenir l'estimateur GEL dans le cas où le nombre de conditions est très grand. Dans cette méthode, un paramètre de régularisation, αn, permet de résoudre le problème d'optimisation mal posé qui en résulte et d'obtenir une solution unique et stable. Le paramètre αn doit converger vers zéro lentement lorsque la taille d'échantillon augmente pour que l'estimateur soit convergent et que la solution demeure stable. Les détails du rythme de convergence de αn sont également présentés dans ce chapitre. Finalement, le chapitre présente la façon de tester les conditions de moments en généralisant les trois tests de spécifications existants pour GEL. Dans le chapitre 2, je présente plusieurs applications numériques. L'objectif est de voir les possibilités de CGEL, d'analyser les propriétés et ses estimateurs en échantillons finis, en comparaison avec ceux de CGMM, et de comprendre l'impact du paramètre αn sur le biais et la variance des estimateurs. Les applications analysées sont : l'estimation d'un modèle linéaire avec endogénéité de forme inconnue, l'estimation des paramètres d'une distribution stable et l'estimation des coefficients d'un processus de diffusion. De façon générale les résultats démontrent que la dominance de CGEL sur CGMM dépend de la valeur de αn. Cela démontre en fait la nécessité de développer une méthode de sélection de αn. Finalement, une méthode de sélection du paramètre an est proposée dans le dernier chapitre. Dans un premier temps, je démontre qu'une méthode de bootstrap simple permet difficilement de faire un choix optimal car elle produit une relation très volatile entre αn et l'erreur quadratique moyen (MSE) du coefficient. Ensuite, je présente une approximation de second ordre du MSE de CGEL par un développement stochastique des conditions de premier ordre comme fait par (Donald and Newey, 2001) pour les double moindres carrés, (Donald, Imbens and Newey, 2010) pour GEL ainsi que (Carrasco, 2010) et (Carrasco and Kotchoni, 2010) pour CGMM. Cette approche permet d'obtenir une relation lisse entre αn et le MSE et donc d'utiliser un algorithme d'optimisation pour obtenir le paramètre optimal. Les résultats semblent être conformes aux résultants précédents selon lesquels la méthode de vraisemblance empirique domine les autres méthodes faisant partie de la famille CGEL. Ils semblent également suggérer que αn, pour le cas linéaire considéré, devrait être choisi aussi petit que possible car c'est de cette façon que le MSE est minimisé. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Vraisemblance Généralisée, Continuum de moments, Méthode des moments généralisés, Économétrie, Variables Instrumentales
416

Statistical methods for analysis and correction of high-throughput screening data

Dragiev, Plamen 11 1900 (has links) (PDF)
Durant le criblage à haut débit (High-throughput screening, HTS), la première étape dans la découverte de médicaments, le niveau d'activité de milliers de composés chimiques est mesuré afin d'identifier parmi eux les candidats potentiels pour devenir futurs médicaments (i.e., hits). Un grand nombre de facteurs environnementaux et procéduraux peut affecter négativement le processus de criblage en introduisant des erreurs systématiques dans les mesures obtenues. Les erreurs systématiques ont le potentiel de modifier de manière significative les résultats de la sélection des hits, produisant ainsi un grand nombre de faux positifs et de faux négatifs. Des méthodes de correction des données HTS ont été développées afin de modifier les données reçues du criblage et compenser pour l'effet négatif que les erreurs systématiques ont sur ces données (Heyse 2002, Brideau et al. 2003, Heuer et al. 2005, Kevorkov and Makarenkov 2005, Makarenkov et al. 2006, Malo et al. 2006, Makarenkov et al. 2007). Dans cette thèse, nous évaluons d'abord l'applicabilité de plusieurs méthodes statistiques servant à détecter la présence d'erreurs systématiques dans les données HTS expérimentales, incluant le x2 goodness-of-fit test, le t-test et le test de Kolmogorov-Smirnov précédé par la méthode de Transformation de Fourier. Nous montrons premièrement que la détection d'erreurs systématiques dans les données HTS brutes est réalisable, de même qu'il est également possible de déterminer l'emplacement exact (lignes, colonnes et plateau) des erreurs systématiques de l'essai. Nous recommandons d'utiliser une version spécialisée du t-test pour détecter l'erreur systématique avant la sélection de hits afin de déterminer si une correction d'erreur est nécessaire ou non. Typiquement, les erreurs systématiques affectent seulement quelques lignes ou colonnes, sur certains, mais pas sur tous les plateaux de l'essai. Toutes les méthodes de correction d'erreur existantes ont été conçues pour modifier toutes les données du plateau sur lequel elles sont appliquées et, dans certains cas, même toutes les données de l'essai. Ainsi, lorsqu'elles sont appliquées, les méthodes existantes modifient non seulement les mesures expérimentales biaisées par l'erreur systématique, mais aussi de nombreuses données correctes. Dans ce contexte, nous proposons deux nouvelles méthodes de correction d'erreur systématique performantes qui sont conçues pour modifier seulement des lignes et des colonnes sélectionnées d'un plateau donné, i.e., celles où la présence d'une erreur systématique a été confirmée. Après la correction, les mesures corrigées restent comparables avec les valeurs non modifiées du plateau donné et celles de tout l'essai. Les deux nouvelles méthodes s'appuient sur les résultats d'un test de détection d'erreur pour déterminer quelles lignes et colonnes de chaque plateau de l'essai doivent être corrigées. Une procédure générale pour la correction des données de criblage à haut débit a aussi été suggérée. Les méthodes actuelles de sélection des hits en criblage à haut débit ne permettent généralement pas d'évaluer la fiabilité des résultats obtenus. Dans cette thèse, nous décrivons une méthodologie permettant d'estimer la probabilité de chaque composé chimique d'être un hit dans le cas où l'essai contient plus qu'un seul réplicat. En utilisant la nouvelle méthodologie, nous définissons une nouvelle procédure de sélection de hits basée sur la probabilité qui permet d'estimer un niveau de confiance caractérisant chaque hit. En plus, de nouvelles mesures servant à estimer des taux de changement de faux positifs et de faux négatifs, en fonction du nombre de réplications de l'essai, ont été proposées. En outre, nous étudions la possibilité de définir des modèles statistiques précis pour la prédiction informatique des mesures HTS. Remarquons que le processus de criblage expérimental est très coûteux. Un criblage virtuel, in silico, pourrait mener à une baisse importante de coûts. Nous nous sommes concentrés sur la recherche de relations entre les mesures HTS expérimentales et un groupe de descripteurs chimiques caractérisant les composés chimiques considérés. Nous avons effectué l'analyse de redondance polynomiale (Polynomial Redundancy Analysis) pour prouver l'existence de ces relations. En même temps, nous avons appliqué deux méthodes d'apprentissage machine, réseaux de neurones et arbres de décision, pour tester leur capacité de prédiction des résultats de criblage expérimentaux. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : criblage à haut débit (HTS), modélisation statistique, modélisation prédictive, erreur systématique, méthodes de correction d'erreur, méthodes d'apprentissage automatique
417

Caractéristiques et déterminants des taux de croissance des firmes : Investigations empiriques

Coad, Alex 23 April 2007 (has links) (PDF)
Cette thèse se concentre sur les investigations empiriques de la croissance des firmes, en utilisant des bases de données des firmes manufacturières françaises et américaines. Nous commençons avec une revue de la littérature afin d'identifier les lacunes dans la littérature actuelle. Nous regardons ensuite la loi de Gibrat et la distribution des taux de croissance. Puis nous observons des effets d'autocorrélation dans la croissance des firmes. Dans un discussion théorique nous contrastons la théorie des 'contraintes financières' à la théorie évolutionniste, et nous concluons que la recherche néoclassique a peut-être exagéré le problème des contraintes financières. Dans notre base de données, nous observons que la croissance est plus ou moins indépendant de la performance financière, et nous concluons que la sélection est assez faible.<br />Dans la dernière partie nous étudions la relation entre<br />l'innovation et la performance des firmes. Des régressions par quantile indiquent que l'innovation a des effets spectaculaires dans une minorité des cas, mais pour 'la firme moyenne' elle n'a que peu d'influence.
418

Apprentissage dans les espaces de grande dimension : Application à la caractérisation de tumeurs noires de la peau à partir d'images

Tenenhaus, Arthur 08 December 2006 (has links) (PDF)
L'objectif de la thèse est de définir les bases conceptuelles permettant de développer des méthodes efficaces et adaptées à la classification dans les espaces de grande dimension. Dans ce contexte, les méthodes à noyau s'avèrent particulièrement adaptées. En effet, au-delà de leurs propriétés de régularisation - régularisation de type Tikhonov (Régression Ridge, Support Vector Machines, ... ) ou réduction de dimension (Partial Least Squares, Régression sur Composantes Principales,...) – elles offrent des avantages algorithmiques majeurs lorsque la dimension des données est supérieure au nombre d'observations. Ces méthodes ont fait l'objet d'une étude approfondie à la fois du point de vue théorique et appliqué dans les deux premiers chapitres de la thèse.<br /><br />Les deux chapitres suivants proposent de nouvelles méthodes, découlant de cette étude. Elles se fondent sur des principes de réduction de dimension supervisée en se focalisant principalement sur la régression PLS, particulièrement bien adaptée à la gestion de données de grande dimension. Il s'agissait de concevoir des algorithmes de classification s'appuyant sur les principes algorithmiques de la régression PLS. Nous avons proposé, la Kernel Logistic PLS, modèle de classification nonlinéaire et binaire basé à la fois sur la construction de variables latentes et sur des transformations du type Empirical Kernel Map. Nous avons étendu la KL-PLS au cas où la variable à prédire est polytomique donnant naissance à la Kernel Multinomial Logistic PLS regression.<br />Enfin dans les deux derniers chapitres, nous avons appliqué ces méthodes à de nombreux domaines, notamment en analyse d'images. Nous avons ainsi contribué au développement d'une application en vraie grandeur dans le domaine médical en élaborant un outil d'aide au diagnostic de tumeurs noires de la peau à partir d'images.
419

Prise en compte de la perception émotionnelle du consommateur dans le processus de conception de produits

Mantelet, Fabrice 11 1900 (has links) (PDF)
L'objectif de cette recherche est de montrer qu'il est possible d'intégrer un outil qui permette de décomposer et de quantifier le ressenti émotionnel du consommateur par rapport à un produit ou une représentation intermédiaire d'un produit dans le processus de conception afin d'optimiser celui-ci. En effet, de nos jours, face à un environnement économique en forte croissance, il ne peut pas y avoir de conception de produit sans désir de communication entre les concepteurs et les consommateurs. Cette volonté de communiquer entraîne de la part du consommateur, des comportements et réactions véritables. Il est donc pertinent de s'intéresser aux réactions des consommateurs, de pouvoir mesurer et prendre en compte leurs émotions dans le processus de conception de produit. L'intérêt scientifique de cette recherche est d'explorer de nouvelles voies, par la combinaison de différentes techniques issues de plusieurs domaines (Ingénierie, Ergonomie, Psychologie, Marketing...). Nous résumons notre apport en recherche par la quantification et la décomposition du ressenti émotionnel du consommateur par rapport à un produit. Pour cela, nous proposons un outil utilisable transversalement dans le processus de conception et générique car il est utilisable indépendamment du secteur industriel. Les résultats de cet outil peuvent être exploités par l'ensemble de l'équipe projet. Notre travail s'appuie sur des actions en conception et innovation, accomplies dans le cadre d'un projet européen, et de deux projets de mastères recherches avec des partenaires industriels.
420

Fonctions noyaux pour molécules et leur application au criblage virtuel par machines à vecteurs de support

Mahé, Pierre 11 1900 (has links) (PDF)
La recherche thérapeutique a de plus en plus recours à des techniques de modélisation, dites de criblage virtuel, visant à corréler la structure d'une molécule avec ses propriétés biologiques. En particulier, l'utilisation de modèles prédictifs quantifiant la toxicité d'une molécule ou son activité vis à vis d'une cible thérapeutique, permet de réduire de manière considérable le temps et les coûts nécessaires à la mise au point de nouveaux médicaments. Nous nous proposons d'aborder ce problème dans le cadre des méthodes à noyaux, qui permettent de construire de tels modèles de manière efficace dès lors que l'on dispose d'une fonction noyau mesurant la similarité des objets que l'on considère. Plus particulièrement, l'objet de cette thèse est de définir de telles fonctions noyaux entre structures bi- et tri-dimensionnelles de molécules. D'un point de vue méthodologique, ce problème se traduit respectivement comme celui de comparer des graphes représentant les liaisons covalentes des molécules, ou des ensembles d'atomes dans l'espace. Plusieurs approches sont envisagées sur la base de l'extraction et la comparaison de divers motifs structuraux qui permettent d'encoder les groupes fonctionnels des molécules à différents niveaux de résolution. Les validations expérimentales suggèrent que cette méthodologie est une alternative prometteuse aux approches classiques en criblage virtuel.

Page generated in 0.0457 seconds