Spelling suggestions: "subject:"offres d'l'emploi."" "subject:"affres d'l'emploi.""
1 |
Marché du travail des développeurs : portrait par modélisation thématique et régression pénalisanteDemers, Ann-Sophie 19 April 2024 (has links)
Titre de l'écran-titre (visionné le 17 avril 2024) / Dans ce mémoire, nous souhaitons établir le portrait du marché du travail des développeurs, identifier ses lacunes et fournir une base qui permettra la mesure de l'adéquation offre-demande. Nous exploitons le texte détaillé d'offres d'emploi de développeurs recueillis en 2019 aux États-Unis ainsi que les réponses au "Developer Survey" de StackOverflow de 2019 qui sonde les travailleurs de ce marché. Plus particulièrement, nous employons l'analyse textuelle par modélisation thématique (Latent Dirichlet Allocation) pour segmenter le marché grâce au contenu des offres d'emplois. Nous arrimons ensuite les catégories de développement ainsi créées aux travailleurs sur la base de leurs réponses au sondage. Pour compléter l'analyse, nous effectuons une régression par Least Absolute Shrinkage and Selection Operator sur les salaires afin de voir les caractéristiques personnelles, les compétences ainsi que les catégories de développement créées par modélisation thématique les plus influentes sur le salaire. Nous trouvons que les différentes catégories de développement créées par notre modèle sont plutôt homogènes dans les salaires suggérant une mobilité aisée entre les différents types de développement pour les travailleurs. Le développement de type « Cloud » se distingue tout de même des autres comme étant le mieux rémunéré. Cependant, les compétences précises ont un pouvoir explicatif plus élevé sur les salaires que les types de développement créés par notre modèle d'analyse textuelle. Nous remarquons toutefois que ces compétences précises ne sont pas beaucoup exploitées dans les offres d'emplois alors qu'elles ont un effet significatif sur le salaire. Nous recommandons leur usage pour améliorer l'adéquation sur le marché.
|
2 |
Prédiction des compétences émergentes par analyse textuelleRoy, Charles 27 January 2024 (has links)
Dans ce mémoire, l'objectif est de prédire les compétences émergentes en utilisant l'information contenue dans les offres d'emploi. Nous combinons le Least Absolute Shrinkage and Selection Operator (LASSO) et l'analyse de texte pour prédire les compétences émergentes. Pour y arriver, nous utilisons la description d'offres d'emploi dans le domaine des animateurs pour le cinéma et l'année de publication des offres. Les offres d'emploi utilisées s'étendent de 2014 à 2021 et proviennent d'un site spécialisé dans le domaine pour les régions de Québec et de Montréal. L'algorithme est en mesure de prédire les compétences émergentes et les compétences moins fréquemment demandées par les employeurs. Nous obtenons respectivement le logiciel Maya et le logicel Nuke comme compétence émergente et compétence de moins en moins demandée par les employeurs.
|
3 |
Fouille de données textuelles et systèmes de recommandation appliqués aux offres d'emploi diffusées sur le web / Text mining and recommender systems applied to job postingsSéguéla, Julie 03 May 2012 (has links)
L'expansion du média Internet pour le recrutement a entraîné ces dernières années la multiplication des canaux dédiés à la diffusion des offres d'emploi. Dans un contexte économique où le contrôle des coûts est primordial, évaluer et comparer les performances des différents canaux de recrutement est devenu un besoin pour les entreprises. Cette thèse a pour objectif le développement d'un outil d'aide à la décision destiné à accompagner les recruteurs durant le processus de diffusion d'une annonce. Il fournit au recruteur la performance attendue sur les sites d'emploi pour un poste à pourvoir donné. Après avoir identifié les facteurs explicatifs potentiels de la performance d'une campagne de recrutement, nous appliquons aux annonces des techniques de fouille de textes afin de les structurer et d'en extraire de l'information pertinente pour enrichir leur description au sein d'un modèle explicatif. Nous proposons dans un second temps un algorithme prédictif de la performance des offres d'emploi, basé sur un système hybride de recommandation, adapté à la problématique de démarrage à froid. Ce système, basé sur une mesure de similarité supervisée, montre des résultats supérieurs à ceux obtenus avec des approches classiques de modélisation multivariée. Nos expérimentations sont menées sur un jeu de données réelles, issues d'une base de données d'annonces publiées sur des sites d'emploi. / Last years, e-recruitment expansion has led to the multiplication of web channels dedicated to job postings. In an economic context where cost control is fundamental, assessment and comparison of recruitment channel performances have become necessary. The purpose of this work is to develop a decision-making tool intended to guide recruiters while they are posting a job on the Internet. This tool provides to recruiters the expected performance on job boards for a given job offer. First, we identify the potential predictors of a recruiting campaign performance. Then, we apply text mining techniques to the job offer texts in order to structure postings and to extract information relevant to improve their description in a predictive model. The job offer performance predictive algorithm is based on a hybrid recommender system, suitable to the cold-start problem. The hybrid system, based on a supervised similarity measure, outperforms standard multivariate models. Our experiments are led on a real dataset, coming from a job posting database.
|
4 |
Méthodes pour la recommandation d’offres d’emploi dans les réseaux sociaux / Methods for Job Recommandation on Social NetworksDiaby, Mamadou 04 June 2015 (has links)
Nous sommes à l’aube d’une nouvelle ère du data mining, celle du stockage, traitement, analyse et exploitation des données massives que l’on appelle Big Data. Les données sont devenues une nouvelle matière première, très prisée par les entreprises de tout type et de toute taille à travers le monde ; elles permettent d’analyser, de comprendre, de modéliser et d’expliquer certains phénomènes comme le comportement et les préférences des utilisateurs ou clients d’une entreprise donnée. La compréhension des préférences des utilisateurs et des clients d’une entreprise permet de leur proposer de la publicité ciblée afin d’augmenter les ventes et la satisfaction des clients et ainsi pouvoir améliorer les revenues de l’entreprise, ce que les géants du Web comme Google, Facebook, LinkedIn et Twitter ont bien compris. Cette thèse de doctorat a été réalisée dans le cadre d’une convention CIFRE entre le laboratoire L2TI de l’université Paris 13 et la start-up franco-américaineWork4 qui développe des applications de recrutement sur Facebook. Son objectif principal était la mise au point d’un ensemble d’algorithmes et méthodes pour proposer aux utilisateurs des réseaux sociaux les offres d’emploi les plus pertinentes. Le développement de nos algorithmes de recommandation a nécessité de surmonter de nombreuses difficultés telles que le préservation de la vie privée des utilisateurs des réseaux sociaux, le traitement des données bruitées et incomplètes des utilisateurs et des offres d’emploi, la difficulté de traitement des données multi-langues et, plus généralement, la difficulté d’extraire automatiquement les offres d’emploi pertinentes pour un utilisateur donné parmi un ensemble d’offres d’emploi. Les systèmes développés durant cette thèse sont principalement basés sur les techniques de systèmes de recommandation, de recherche documentaire,de fouille de données et d’apprentissage artificiel ; ils ont été validés sur des jeux de données réels collectés par l’entreprise Work4. Dans le cadre de cette étude, les utilisateurs d’un réseau social sont liés à trois types entités : les offres d’emploi qui leur sont pertinentes, les autres utilisateurs du réseau social auxquels ils se sont liés d’amitié et les données personnelles qu’ils ont publiées sur leurs profils. Les profils des utilisateurs des réseaux sociaux et la description de nos offres d’emploi sont constitués de plusieurs champs contenant des informations textuelles. / We are entering a new era of data mining in which the main challenge is the storing andprocessing of massive data : this is leading to a new promising research and industry field called Big data. Data are currently a new raw material coveted by businesses of all sizes and all sectors. They allow organizations to analyze, understand, model and explain phenomen a such as the behavior of their users or customers. Some companies like Google, Facebook,LinkedIn and Twitter are using user data to determine their preferences in order to make targeted advertisements to increase their revenues.This thesis has been carried out in collaboration between the laboratory L2TI andWork4, a French-American startup that offers Facebook recruitment solutions. Its main objective was the development of systems recommending relevant jobs to social network users ; the developed systems have been used to advertise job positions on social networks. After studying the literature about recommender systems, information retrieval, data mining and machine learning, we modeled social users using data they posted on their profiles, those of their social relationships together with the bag-of-words and ontology-based models. We measure the interests of users for jobs using both heuristics and models based on machine learning. The development of efficient job recommender systems involved to tackle the problem of categorization and summarization of user profiles and job descriptions. After developing job recommender systems on social networks, we developed a set of systems called Work4 Oracle that predict the audience (number of clicks) of job advertisements posted on Facebook, LinkedIn or Twitter. The analysis of the results of Work4 Oracle allows us to find and quantify factors impacting the popularity of job ads posted on social networks, these results have been compared to those of the literature of Human Resource Management. All our proposed systems deal with privacy preservation by only using the data that social network users explicitly allowed to access to ; they also deal with noisy and missing data of social network users and have been validated on real-world data provided by Work4.
|
Page generated in 0.0524 seconds