• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 4
  • 1
  • Tagged with
  • 12
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evaluation des politiques de l'emploi : analyse théorique et micro-économétrique / Effectiveness of employment policies : Theoretical & microeconometric analysis

Bejaoui, Sayfeddine 20 December 2013 (has links)
Dans cette thèse, nous dépassons le cadre binaire de l’évaluation et nous nous plaçons dans celui de plusieurs traitements, à l’instar de Brodaty et al. [2001], Larson [2000], Imbens [1999]. Les estimations effectuées portent sur les politiques de l’emploi en vigueur en France pendant la période 1997-1999. Trois programmes sont étudies : CIE (Contrat Initiative Emploi) emploi subventionné dans le secteur marchand, CES (Contrat Emploi-Solidarité) création d’emploi dans le secteur non marchand et SIFE (Stage d’Insertion par la Formation et l’Emploi). L’efficacité de ces dispositifs est évaluée non seulement sur le taux de retour à l’emploi des bénéficiaires mais aussi sur divers autres critères qui répondent à différentes questions intéressantes économiquement et économétriquement : i) la politique active de l’emploi atteint-elle les demandeurs d’emploi les plus prioritaires parmi les prioritaires ? ii) Comment les entreprises utilisent-elles les programmes de la politique active (effet d’aubaine, de substitution,...) ? iii) Pouvons-nous mesurer la qualité d’un contrat aidé ? Comment évaluer l’efficacité relative d’un contrat aidé (plus spécifiquement) non marchand comparativement à celui du secteur marchand ?, impact marginal, effet propre, bien-être, , etc. / We evaluate the ALMP’s with a particular attention to the differentiation of impacts by categories of programmes and categories of beneficiaries. These two forms of heterogeneity can in fact lead to erroneous evaluations or too partial:i) The heterogeneity of programmes proposed, in particular their characteristics (type of contract, duration, remuneration, training, etc.) are an important source of complexity in behavior of self-selection of job seekers: behaviors can be multiples and strategic.ii) The heterogeneity of target-populations (low-skilled, youth, women, priority category, first-job seekers, etc.) is an important source of complexity in the behavior selection of employment advisor.There is finally no reason that different types of programmes have the same average effect on various public as well. We evaluate so ALMP’s on multiple criteria of effectiveness (heterogeneity of criteria).
12

Équilibrage de charge et répartition de ressources dans les grands systèmes distribués

Leconte, Mathieu 18 December 2013 (has links) (PDF)
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.

Page generated in 0.0695 seconds