• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • 1
  • Tagged with
  • 10
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Essays on exporters’ behavior and their aggregate implications / Essais sur le comportement des exportateurs et leurs implications agrégées

Nedoncelle, Clément 06 December 2016 (has links)
La micro-fondation de l’analyse économique n’est pas nouvelle. L’analyse du commerce international a connu un renouveau depuis que l’hétérogénéité des exportateurs a été mise en évidence. Ma thèse contribue à la littérature en mettant en évidence de nouvelles dimensions sur lesquelles les exportateurs sont hétérogènes, à partir desquelles je dérive des conséquences agrégées non-triviales. Dans le premier chapitre, j’estime l’effet pro-commercial des travailleurs migrants. En utilisant des données exhaustives de l’emploi des firmes françaises, je montre que les firmes sont hétérogènes dans l’emploi de travailleurs nés à l’étranger et que l’emploi de ces travailleurs étrangers génère un effet pro-commercial qui peut être rationalisé par deux canaux. D’une part, l’emploi de ces travailleurs est associé à une augmentation de la productivité, favorisant l’exportation. D’autre part, les travailleurs migrants apportent de l’information sur leur pays d’origine à leur entreprise. Dans le deuxième chapitre, j’explique pourquoi la volatilité du taux de change n’est pas associée à des exportations agrégées plus faibles. Je montre que les firmes qui servent plusieurs destinations, et qui déterminent donc les exportations agrégées, réagissent à la volatilité en réallouant leurs exportations vers d’autres destinations, laissant donc les exportations agrégées inchangées. Dans le chapitre 3, en utilisant des données agrégées pour les pays de l’OCDE, je montre que la réponse des comptes courants aux variations de couts de commerce dépend de l’intensité capitalistique agrégée des exportations et de la profondeur des accords régionaux favorisant la mobilité des facteurs. La prise en compte de l’hétérogénéité sectorielle est alors cruciale pour évaluer les conséquences de la libéralisation commerciale. / Micro-foundation of economic analysis is nothing new. In the last two decades, international trade stepped into that direction by documenting how observed trade flows were made of heterogeneous exporting firms, that differ from each other along many dimensions. Yet, accounting for this heterogeneity is just a first step. My thesis contributes to the literature by providing additional insights on exporters’ behavior and, crucially, by deriving aggregate non-trivial aggregate implications from this micro-level heterogeneity, of particular importance for both academics and policymakers. In chapter 1, I estimate the pro-trade effect of migrants. Using exhaustive administrative data of French firms’ employment, I show that firms are heterogeneous in their employment of foreign-born workers. I also show that employing migrant workers generates a pro-trade effect that occurs both through increased access to information on the partner country and through increased productivity within the firm boundaries. In chapter 2, I solve a puzzle relating exchange-rate volatility and trade flows. I show that multi-destination firms, who account for the bulk of aggregate exports, react to an adverse shock of exchange-rate volatility transferring trade to other and less volatile destinations, thus leaving exports unchanged at the aggregate level. In chapter 3, using aggregate data for the OECD countries, I provide evidence that the response of current accounts to changes in trade costs depends on the capital intensity of production and on the depth of regional agreements on trade and factor mobility. Accounting for sectoral composition of trade is thus crucial to assess the consequences of trade liberalization.
2

Prise en compte de la surdispersion par des modèles à mélange de Poisson

MARQUE, Sebastien 03 December 2003 (has links) (PDF)
Cette thèse propose une approche opérationnelle permettant de traiter des données environnementales surdispersées. Cette surdispersion, qui peut avoir pour origine une mauvaise spécification du modèle ou un recueil de données incomplet, entraîne un biais important dans l'estimation des paramètres. Ce travail propose donc une approche basée sur la régression Arcsinus Stricte comme alternative à la régression Binomiale-Négative. Le second aspect est abordé en présentant un modèle hiérarchique encore méconnu en épidémiologie et une extension possible aux corrélations spatiales, qui permet de compléter l'information disponible dans les études écologiques. Chacun de ces deux aspects seront détaillés d'un point de vue théorique et par des études de simulation. Enfin, nous préciserons les caractéristiques de la mortalité cardiovasculaire chez les personnes âgées par une analyse démographique complète. Nous détaillerons ensuite les facteurs de risque usuels de cette cause de décès ainsi que l'effet des éléments minéraux de l'eau de boisson, et principalement le calcium et le magnésium.
3

Expositions agrégées aux composés organiques semi-volatils dans l'habitat et risques sanitaires associés / Aggregating exposures and cumulating risk to indoor semivolatile organic compounds

Pelletier, Maud 02 November 2017 (has links)
Les populations sont exposées dans leur habitat à un nombre croissant de composés chimiques, dont les composés organiques semi-volatils (COSV). Ils se distribuent sur les surfaces, les phases particulaire et gazeuse de l’air et les poussières, participant ainsi à l’exposition des populations par ingestion, par inhalation et par contact cutané. Plusieurs de ces composés sont suspectés d’être toxiques pour l’Homme. L’objectif de cette thèse est d’évaluer, par une démarche d’évaluation des risques sanitaires, l’impact sur la santé publique des expositions aux COSV fréquemment détectés dans les logements français. Dans un premier temps, les expositions ont été estimées pour 32 composés à partir de données de contamination et de facteurs humains d’exposition comme le poids, le volume respiratoire, le temps passé dans l’habitat, etc. Les voies orale, pulmonaire et cutanée ont été agrégées pour les COSV les plus préoccupants présents dans l’habitat et pour plusieurs tranches d’âge de la naissance à 30 ans. Dans un second temps, les risques pour la santé humaine ont été modélisés à partir de ces expositions et des données disponibles sur leur toxicité. Chaque composé a été pris en compte individuellement mais également en mélange sous l’hypothèse d’additivité des doses. Ce travail a permis l’obtention de distributions représentatives des expositions des populations dans l’habitat en France et d’identifier les voies et les médias dominants pour chaque composé ainsi que les COSV les plus à risque pour une certaine proportion de la population française. / In housing, people are exposed to an increasing number of chemicals, including semivolatile organic compounds (SVOCs). SVOCs are present on surfaces, in the gas phase, airborne particles and settled dust. Humans are exposed through ingestion, inhalation and dermal contact. Many of these compounds have suspected toxic effects on human health. The objective of this thesis is to assess, by a risk assessment approach, the public health risk posed by the exposure to SVOCs frequently detected in French dwellings. At first, indoor exposures were estimated for 32 compounds from contamination data and human parameters such as body weight, inhalation rate, time spent in dwellings etc. Ingestion, inhalation and dermal contact exposure pathways were aggregated for the indoor SVOCs of greatest concern and for several age groups from birth to age 30. In a second step, human health risks were modeled from these exposures and from available toxicity data. Each SVOC was considered separately and also in mixtures, based on the assumption of dose additivity. This work provided exposures distributions representative of the French population and identified the dominant media and exposure routes for each compound as well as the most at risk SVOCs for a certain portion of the French population.
4

Description statistique des données ordinales : analyse multidimensionnelle

Drouet D'Aubigny, Génard 27 June 1975 (has links) (PDF)
.
5

Structures de décision multi-niveaux pour la planification de la production : robustesse et cohérence des décisions

Hetreux, Gilles 17 December 1996 (has links) (PDF)
Chargée d'organiser la fabrication, la gestion de la production est une tâche complexe qui tend à jouer un rôle de plus en plus déterminant pour le bon fonctionnement des entreprises. Afin de faciliter l'établissement du plan de production, cette étude s'intéresse à la mise en oeuvre de structures décisionnelles multi-niveaux. Les niveaux décisionnels sont définis à partir d'une agrégation de données, d'une désagrégation des décisions et d'horizon temporels adaptés. A chaque niveau, l'élaboration de la décision est réalisée par affinements successifs avec une dynamique appropriée. Cependant, l'ignorance des interactions entre niveaux conduit souvent à des dysfonctionnements importants dans le processus décisionnel. Pour cette raison, ce travail est centré sur la formalisation et l'analyse des interactions entre niveaux afin d'aboutir à la coordination globale des décisions au sein de la structure. Les concepts génériques de robustesse des décisions agrégées et de cohérence des décisions détaillées sont introduits et caractérisés. La mise en ¿uvre de ces deux concepts est réalisée par l'établissement de conditions analytiques destinées à être introduites sous forme de contraintes au sein des modèles mathématiques de chaque niveau. La détermination de conditions d'existence de solution dans un modèle d'étude traduisant les interactions entre entités détaillées et agrégées, l'exploitation des outils de programmation linéaire et de théorie des graphes permettent de construire de manière systématique les conditions recherchées. Cette méthodologie est mise en oeuvre dans le cadre d'un problème de production multi-produits, muti-étapes, multi-ressources. La structure élémentaire considérée comporte deux niveaux de décision basés sur l'agrégation du temps. Ce type d'agrégation, associé à un processus dynamique de désagrégation, offre des avantages importants au plan de la réactivité comme au plan de l'a utonomie décisionnelle. Les développements d'abord théoriques sont poursuivis par des approches prenant en considération un souci de mise en oeuvre. Dans ce cadre, la notion d'arriérés de fabrication est introduite ainsi que la prise en compte explicite de l'incertitude des données.
6

Théorie et applications en ordonnancement : contraintes de ressources et tâches agrégées en catégories

Lehoux, Vassilissa 06 September 2007 (has links) (PDF)
Le thème de ce mémoire est l'ordonnancement dans les ateliers de production. L'objectif est d'étudier différents modèles classiques en analysant les liens et différences entre ces modèles et les problèmes pratiques associés. Les méthodes utilisées sont l'analyse de problèmes de nos partenaires industriels, l'étude de la complexité des problèmes ou de la structure des solutions et la proposition de méthodes de résolution exactes ou approchées. Le premier axe de cette thèse est l'étude de problèmes d'ordonnancement avec contraintes de ressources d'entrée/sortie. Les environnements considérés sont les flowshops robotisés et le nouveau modèle d'indisponibilité des opérateurs. Le second axe abordé concerne l'ordonnancement avec high multiplicity où les pièces sont agrégées en catégories. La description complète d'un ordonnancement (c'est-à-dire les instants de fabrication des tâches) n'est que pseudo-polynomiale de la taille de l'instance.
7

Le Rôle des Réseaux de Production dans la Propagation Domestique et Internationale des Chocs Sectoriels / The Role of Production Networks in the Propagation of Shocks Within and Across Countries

Martinez Garibay, Homero Alberto 30 November 2018 (has links)
Cette thèse étudie le rôle des marchés de production intersectoriels dans l’amplification et dans la propagation des chocs subis par les économies modernes. Une littérature théorique récente prédit que lorsque les réseaux d’inputs intermédiaires sont dominés par un groupe réduit de fournisseurs, la propagation des chocs au sein d’une économie est conséquente, et la dynamique de la production agrégée devient sensible aux aléas microéconomiques ; c’est à dire, à ceux subis par des firmes ou des secteurs. Cette thèse a pour premier but de tester cette hypothèse de façon empirique. Cette thèse va aussi au-delà des concepts déjà présentés par cette littérature en démontrant que l’étude de la structure en réseau des marchés internationaux d’inputs permet aussi d’étudier la propagation de chocs entre pays. Ainsi, cette thèse propose une nouvelle façon d’étudier un mécanisme de contagion international bien connu : les chaines internationales de valeur. Trois questions guident notre discussion : Est-ce que les économies industrialisées présentent-elles une structure en réseau susceptible d’amplifier les chocs idiosyncratiques ? Est-t-il possible de relier empiriquement la structure en réseau des marchés intersectoriels à la force de propagation des chocs ? Est-ce que la structure en réseaux des marchés internationaux d’inputs peut aider à expliquer la propagation des chocs entre pays, et ainsi la synchronisation internationale des cycles économiques entre pays ? Les résultats empiriques de cette thèse suggèrent une réponse positive à ces trois interrogations, et apportent des nouveaux éléments en faveur du développement de cette nouvelle branche de la macroéconomie internationale / This dissertation explores empirically the link between the network structure of inter-industry markets and the force of propagation of shocks affecting modern economies. Recent theoretical propositions suggest that where intermediate inputs markets are led by few very influential suppliers the propagation of shocks is strong, and the aggregate economy becomes sensitive to industryspecific shocks. The first objective of this dissertation is to test empirically these propositions. More importantly, this thesis goes beyond these observations by highlighting that current concepts linking the network structure of economies to the propagation of shocks within the economies may be applied to study the propagation of shocks across countries. This dissertation introduces a new way of studying a well-known international diffusion mechanism: the global inter-industry value chains. Discussion is articulated throughout three questions : Based on their network structure, are modern economies prone to important spillovers ? If so, may the network structure of economies predict the actual level of comovement of industrial activity ? Since globalization led to international fragmentation of production, may the network structure of international inter-industry value chains foster cross-country spillovers ? Empirical results give positive answers to these questions, and provide elements to continue exploring this emerging literature of the international macroeconomics
8

Analyse bayésienne et classification pour modèles continus modifiés à zéro

Labrecque-Synnott, Félix 08 1900 (has links)
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique. / Zero-inflated models, both discrete and continuous, have a large variety of applications and fairly well-known properties. Some work has been done on zero-deflated and zero-modified discrete models. The usual formulation of continuous zero-inflated models -- a mixture between a continuous density and a Dirac mass at zero -- precludes their extension to cover the zero-deflated case. We introduce an alternative formulation of zero-inflated continuous models, along with a natural extension to the zero-deflated case. Parameter estimation is first studied within the classical frequentist framework. Several methods for obtaining the maximum likelihood estimators are proposed. The problem of point estimation is considered from a Bayesian point of view. Hypothesis testing, aiming at determining whether data are zero-inflated, zero-deflated or not zero-modified, is also considered under both the classical and Bayesian paradigms. The proposed estimation and testing methods are assessed through simulation studies and applied to aggregated rainfall data. The data is shown to be zero-deflated, demonstrating the relevance of the proposed model. We next consider the clustering of samples of zero-deflated data. Such data present strong non-normality. Therefore, the usual methods for determining the number of clusters are expected to perform poorly. We argue that Bayesian clustering based on the marginal distribution of the observations would take into account the particularities of the model and exhibit better performance. Several clustering methods are compared using a simulation study. The proposed method is applied to aggregated rainfall data sampled from 28 measuring stations in British Columbia.
9

Analyse bayésienne et classification pour modèles continus modifiés à zéro

Labrecque-Synnott, Félix 08 1900 (has links)
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique. / Zero-inflated models, both discrete and continuous, have a large variety of applications and fairly well-known properties. Some work has been done on zero-deflated and zero-modified discrete models. The usual formulation of continuous zero-inflated models -- a mixture between a continuous density and a Dirac mass at zero -- precludes their extension to cover the zero-deflated case. We introduce an alternative formulation of zero-inflated continuous models, along with a natural extension to the zero-deflated case. Parameter estimation is first studied within the classical frequentist framework. Several methods for obtaining the maximum likelihood estimators are proposed. The problem of point estimation is considered from a Bayesian point of view. Hypothesis testing, aiming at determining whether data are zero-inflated, zero-deflated or not zero-modified, is also considered under both the classical and Bayesian paradigms. The proposed estimation and testing methods are assessed through simulation studies and applied to aggregated rainfall data. The data is shown to be zero-deflated, demonstrating the relevance of the proposed model. We next consider the clustering of samples of zero-deflated data. Such data present strong non-normality. Therefore, the usual methods for determining the number of clusters are expected to perform poorly. We argue that Bayesian clustering based on the marginal distribution of the observations would take into account the particularities of the model and exhibit better performance. Several clustering methods are compared using a simulation study. The proposed method is applied to aggregated rainfall data sampled from 28 measuring stations in British Columbia.
10

Méthodes d'analyse statistique pour données répétées dans les essais cliniques : intérêts et applications au paludisme / Statistical method for analysis of recurrent events in clinical trials : interest and applications to malaria data

Sagara, Issaka 17 December 2014 (has links)
De nombreuses études cliniques ou interventions de lutte ont été faites ou sont en cours en Afrique pour la lutte contre le fléau du paludisme. En zone d'endémie, le paludisme est une maladie récurrente. La revue de littérature indique une application limitée des outils statistiques appropriés existants pour l'analyse des données récurrentes de paludisme. Nous avons mis en oeuvre des méthodes statistiques appropriées pour l'analyse des données répétées d'essais thérapeutiques de paludisme. Nous avons également étudié les mesures répétées d'hémoglobine lors du suivi de traitements antipaludiques en vue d'évaluer la tolérance ou sécurité des médicaments en regroupant les données de 13 essais cliniques.Pour l'analyse du nombre d'épisodes de paludisme, la régression binomiale négative a été mise en oeuvre. Pour modéliser la récurrence des épisodes de paludisme, quatre modèles ont été utilisés : i) Les équations d'estimation généralisées (GEE) utilisant la distribution de Poisson; et trois modèles qui sont une extension du modèle Cox: ii) le modèle de processus de comptage d'Andersen-Gill (AG-CP), iii) le modèle de processus de comptage de Prentice-Williams-Peterson (PWP-CP); et iv) le modèle de Fragilité partagée de distribution gamma. Pour l'analyse de sécurité, c'est-à-dire l'évaluation de l'impact de traitements antipaludiques sur le taux d'hémoglobine ou la survenue de l'anémie, les modèles linéaires et latents généralisés mixtes (« GLLAMM : generalized linear and latent mixed models ») ont été mis en oeuvre. Les perspectives sont l'élaboration de guides de bonnes pratiques de préparation et d'analyse ainsi que la création d'un entrepôt des données de paludisme. / Numerous clinical studies or control interventions were done or are ongoing in Africa for malaria control. For an efficient control of this disease, the strategies should be closer to the reality of the field and the data should be analyzed appropriately. In endemic areas, malaria is a recurrent disease. Repeated malaria episodes are common in African. However, the literature review indicates a limited application of appropriate statistical tools for the analysis of recurrent malaria data. We implemented appropriate statistical methods for the analysis of these data We have also studied the repeated measurements of hemoglobin during malaria treatments follow-up in order to assess the safety of the study drugs by pooling data from 13 clinical trials.For the analysis of the number of malaria episodes, the negative binomial regression has been implemented. To model the recurrence of malaria episodes, four models were used: i) the generalized estimating equations (GEE) using the Poisson distribution; and three models that are an extension of the Cox model: ii) Andersen-Gill counting process (AG-CP), iii) Prentice-Williams-Peterson counting process (PWP-CP); and (iv) the shared gamma frailty model. For the safety analysis, i.e. the assessment of the impact of malaria treatment on hemoglobin levels or the onset of anemia, the generalized linear and latent mixed models (GLLAMM) has been implemented. We have shown how to properly apply the existing statistical tools in the analysis of these data. The prospects of this work remain in the development of guides on good practices on the methodology of the preparation and analysis and storage network for malaria data.

Page generated in 0.0397 seconds