• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 164
  • 61
  • 13
  • 1
  • Tagged with
  • 238
  • 166
  • 117
  • 83
  • 77
  • 66
  • 58
  • 38
  • 35
  • 33
  • 33
  • 26
  • 26
  • 26
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture

Paul, Alexandre 08 1900 (has links)
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées. / The study of the clustering of functional data has made a lot of progress in the last couple of years. Multiple methods have been proposed and the respective analysis has shown their eÿciency with some benchmark studies. The objective of this Master’s thesis is to compare those clustering algorithms with datasets from traÿc at an intersection of Montreal. The idea behind this is that the manual classification of these data sets is time-consuming. We show that it is possible to obtain adequate clustering and prediction results with several algorithms. One of the methods that we discussed is distclust : a distance-based algorithm that uses a K-means approach. We will also use a Gaussian mixture density clustering method known as mclust. Although those two techniques are quite e˙ective, they are multi-purpose clustering methods, therefore not tailored to the functional case. With that in mind, we apply four functional clustering methods : fitfclust, funmbclust, funclust, and funHDDC. Our results show that there is no loss in the quality of the clustering between the afore-mentioned functional methods and the multi-purpose ones. We prefer to use the functional ones because they provide a detailed estimation of the functional structure of the trajectory curves. One notable detail is the impact of a dimension reduction done with multivari-ate functional principal components analysis. Furthermore, we can use objective selection criteria such as the AIC and the BIC, and avoid using cluster quality indices that use a pre-existing classification of the data.
132

Approche bayésienne de l'estimation des composantes périodiques des signaux en chronobiologie / A Bayesian approach for periodic components estimation for chronobiological signals

Dumitru, Mircea 25 March 2016 (has links)
La toxicité et l’efficacité de plus de 30 agents anticancéreux présentent de très fortes variations en fonction du temps de dosage. Par conséquent, les biologistes qui étudient le rythme circadien ont besoin d’une méthode très précise pour estimer le vecteur de composantes périodiques (CP) de signaux chronobiologiques. En outre, dans les développements récents, non seulement la période dominante ou le vecteur de CP présentent un intérêt crucial, mais aussi leurs stabilités ou variabilités. Dans les expériences effectuées en traitement du cancer, les signaux enregistrés correspondant à différentes phases de traitement sont courts, de sept jours pour le segment de synchronisation jusqu’à deux ou trois jours pour le segment après traitement. Lorsqu’on étudie la stabilité de la période dominante nous devons considérer des signaux très court par rapport à la connaissance a priori de la période dominante, placée dans le domaine circadien. Les approches classiques fondées sur la transformée de Fourier (TF) sont inefficaces (i.e. manque de précision) compte tenu de la particularité des données (i.e. la courte longueur). Dans cette thèse, nous proposons une nouvelle méthode pour l’estimation du vecteur de CP des signaux biomédicaux, en utilisant les informations biologiques a priori et en considérant un modèle qui représente le bruit. Les signaux enregistrés dans le cadre d’expériences développées pour le traitement du cancer ont un nombre limité de périodes. Cette information a priori peut être traduite comme la parcimonie du vecteur de CP. La méthode proposée considère l’estimation de vecteur de CP comme un problème inverse enutilisant l’inférence bayésienne générale afin de déduire toutes les inconnues de notre modèle, à savoir le vecteur de CP mais aussi les hyperparamètres (i.e. les variances associées). / The toxicity and efficacy of more than 30 anticancer agents presents very high variations, depending on the dosing time. Therefore the biologists studying the circadian rhythm require a very precise method for estimating the Periodic Components (PC) vector of chronobiological signals. Moreover, in recent developments not only the dominant period or the PC vector present a crucial interest, but also their stability or variability. In cancer treatment experiments the recorded signals corresponding to different phases of treatment are short, from seven days for the synchronization segment to two or three days for the after treatment segment. When studying the stability of the dominant period we have to consider very short length signals relative to the prior knowledge of the dominant period, placed in the circadian domain. The classical approaches, based on Fourier Transform (FT) methods are inefficient (i.e. lack of precision) considering the particularities of the data (i.e. the short length). In this thesis we propose a new method for the estimation of the PC vector of biomedical signals, using the biological prior informations and considering a model that accounts for the noise. The experiments developed in the cancer treatment context are recording signals expressing a limited number of periods. This is a prior information that can be translated as the sparsity of the PC vector. The proposed method considers the PC vector estimation as an Inverse Problem (IP) using the general Bayesian inference in order to infer all the unknowns of our model, i.e. the PC vector but also the hyperparameters.
133

Conception, construction et évaluation d'un indice sous-jacente pour l'économie vietnamienne / Concept, structure and evaluation of core inflation index for the Vietnam economy

Pham, Thi Thanh Xuan 14 April 2015 (has links)
Cette thèse est pour le but final d’estimer avec succès un indice d’inflation sous-jacente donnant les meilleures prévisions de l’inflation au Vietnam. D’un point de vue méthodologie, cette thèse s’appuie sur les démarches qualitatives afin de mesurer un indice d’inflation sous-jacente pour l’économie vietnamienne. Les différentes méthodes pour mesurer l’inflation sous-jacente ont été utilisées. La structure de cette thèse est établie en accord étroitement avec nos objectifs de recherche. L’introduction générale présente un aperçu général du sujet de recherche. Le chapitre 1 est à l’appui sur l’explication de la nature de l’inflation sous-jacente. Les chapitres 2 et 3 portent sur les mesures de l’inflation sous-jacente et les applications dans le cas du Vietnam. Les mesures statistiques – qui sont familière dans les banques centrales à travers le monde – sont reportées dans le chapitre 2. Le chapitre 3 présente les modèles économétriques qui aident à estimer l’inflation sous-jacente (le modèle SVAR de Quad-Vahey, le modèle à tendances communes et le modèle à composantes inobservables). Chaque mesure est également étudiée et reportée dans le processus suivant : d’abord, la notion d’inflation sous-jacente ; puis, la littérature de base de cette notion d’inflation sous-jacente ; ensuite, les techniques d’estimation de l’inflation sous-jacente et enfin, l’application de cette mesure dans le cas du Vietnam. Les indices d’inflation sous-jacente obtenus aux chapitres 2 et 3 sont examinés, analysés et comparés les uns aux autres. Les tests sont reportés dans le chapitre 4. La conclusion générale résume les résultats finaux de ce travail de recherche.Le résultat officiel de ce travail est un ensemble de dix indices d’inflation sous-jacente qui satisfont à toutes les propriétés attendues et qui semblent optimaux pour la prévision d’inflation. Un autre résultat qui va au-delà de nos attentes, est que parmi ces dix indices, l’un d’entre eux possède un double fonction, à savoir un indice prédictif de l’inflation et un indice de référence de l’inflation. Cet indice possède un pouvoir prédictif élevé et semble pouvoir être largement accepté par le grand publie comme leur indice de référence. Un autre apport supplémentaire de cette thèse est les remarques concernant la technique d’estimation de l’inflation sous-jacente appropriée dans le cas du Vietnam. / This thesis focuses on concepts, structures and evaluation of core inflation index for the Vietnam economy. The final purpose of the research is to estimate the core inflation index which enable to provide the best prediction of the Vietnam inflation. From the point of view of methodology, the thesis highlights on the qualitative approaches in order to measure the core inflation index for the Vietnam economy. The different methods have been used as follows: First, the pure statistical measurements such as trimmed mean, exclusion, median, weighted median and reduced - weighted average... and a more sophisticated method, i.e. the dynamic factor model. This model helps to capture the dynamic of an underlying factor which generates the tendency of inflation. Secondly, the three econometric models include SVAR model developed by Quah-Vahey, common trend model and unobservable components model. These models facilitate to better integrate the macroeconomic theory into measurement of core inflation. The later model is selected to overcome the disadvantages of the former one.The structure of the thesis is established in accordance with our research objectives. The introduction presents a brief overview of the research subject. The first chapter discusses the core inflation nature. The chapters 2 and 3 analyze the core inflation measurements and their applications in the case of Vietnam. The statistic measures that are more familiar with central banks in the world are presented in the chapter 2. The third one presents in details the three econometric models. Each measure is studied and presented in the following process: (i) the notion of core inflation, (ii) its theorical background (iii) the estimation techniques and (iv) the application of these measures into the Vietnam data.The obtained core inflation indexes are examined, analyzed and compared to each other. Its results are reported in the chapter 4. The general conclusion sums up the final results of this research. The official result of the study is a set of ten core inflation indexes which responds all the expected properties and seem optimal for the inflation forecasts. Another result that goes beyond our expectation is that one of these ten indexes has a dual function i.e. a good predictor of inflation and a public index of inflation. A supplementary contribution of this thesis is a list of important remarks concerning the estimation technique of core inflation that is applicable in the case of Vietnam.
134

Caractérisation multibande de galaxies par hiérarchie de modèles et arbres de composantes connexes

Perret, Benjamin 17 November 2010 (has links) (PDF)
Cette thèse propose une méthode de caractérisation morphologique multibande des galaxies. Ces dernières ont commencé à évoluer et à interagir très tôt dans l'histoire de l'Univers: leurs formes dans les différentes parties du spectre électromagnétique représentent donc un traceur important de cette histoire. Ce travail propose une organisation hiérarchique de modèles, allant de la description des structures dominantes (bulbe et disque) aux composantes les plus fines (bras spiraux, anneaux, ...). Elle permet d'aboutir à une description des galaxies de haut niveau sémantique, chaque modèle réalisant une décomposition multibande de l'image en composantes astrophysiques interprétables par les astronomes. Les modélisations proposées innovent par l'intégration d'un filtre adaptatif appliqué sur les observations, dont les paramètres sont estimés conjointement avec ceux des composantes de la galaxie. L'estimation des paramètres des modèles est effectuée dans un contexte bayésien et résolue à l'aide d'algorithmes d'optimisation stochastique (algorithmes de Monte Carlo par chaines de Markov). La rapidité des algorithmes est améliorée grâce à des techniques d'échelles et de directions adaptatives, ainsi qu'à une version multi-températures du recuit simulé. En outre, les développements concernant la théorie des arbres de composantes connexes permettent la mise au point d'algorithmes non paramétriques multibandes, efficaces et robustes pour la réalisation des pré-traitements nécessaires à la mise en oeuvre de la décomposition en structures. Cela a notamment abouti à des avancées dans la théorie des hyperconnexions et des représentations sous forme d'arbres de composantes hyperconnexes. Les performances des méthodes proposées ont été évaluées sur un ensemble conséquent d'environ 1 500 galaxies et discutées avec les astronomes: elles montrent clairement la pertinence et la robustesse de la méthode. Ces résultats ouvrent la voie à de nouvelles classifications prenant en compte la signature multibande des galaxies spatialement résolues.
135

Micro et nano-antennes adaptées à la microscopie champ proche et à l'imagerie haute résolution

Fahys, A. 07 December 2007 (has links) (PDF)
Ce travail consiste en l'étude et la mise en oeuvre d'une microscopie optique en champ proche utilisant des nano-antennes annulaires dans le but de distinguer les composantes électriques et magnétiques du champ électromagnétique, détectées au voisinage d'un échantillon.<br />Nous présentons la genèse de la microscopie en champ proche en mettant en avant l'importance des caractéristiques intrinsèques du système d'éclairage employé mais également le rôle primordial du nanocollecteur en interaction avec le champ électromagnétique. Les antennes étant un des enjeux majeurs dans l'art de détecter les champs électromagnétiques, nous donnons ensuite une cartographie des antennes dans différents domaines de fréquences ainsi que leurs applications respectives en champ proche. Puis nous exposons les étapes nécessaires à la fabrication d'une nano-antenne annulaire métallique aux dimensions spécifiques, à l'extrémité d'une fibre optique.<br />La description du système d'éclairage et du montage général de caractérisation nous amène enfin à présenter l'étude d'un nouveau type de sonde que constitue une nano-antenne annulaire usinée à l'extrémité d'un micro-axicon fibré. En exploitant les propriétés d'un faisceau de Bessel polarisé polychromatique, nous accédons aux propriétés de collection de la structure annulaire. Nous mettons en évidence le fait que ces antennes peuvent collecter spécifiquement la composante longitudinale du champ électrique en polarisation radiale ou du champ magnétique en polarisation orthoradiale. L'analyse des propriétés magnétiques et électriques d'échantillons en microscopie optique champ proche<br />s'annoncent, de ce fait, sous un nouveau jour.
136

Identification et modélisation du torseur des actions de coupe en fraisage

Albert, Gaëtan 13 December 2010 (has links)
Les procédés de mise en forme par enlèvement de matière introduisent, lors de la formation du copeau,des phénomènes complexes et rendent difficiles la maîtrise des grandeurs énergétiques. Des mesuresréalisées à l’aide d’un dynamomètre à six composantes permettent de mieux appréhender ces phénomènes.Ce dynamomètre permet de mesurer l’ensemble des actions mécaniques transmises par la liaison mécaniqueentre la matière usinée (copeau et pièce) et l’outil de coupe. Les mesures révèlent alors la présence demoments, à la pointe de l’outil, non évalués par les modèles de coupe classiques. Cependant, les lois decomportement actuelles ne permettent pas d’exprimer complètement ces phénomènes complexes (gradientsde déformations) lors de la formation du copeau. Actuellement, une modélisation analytique ou numérique etrendant compte de ces phénomènes est donc exclue. Des approches expérimentales ont alors été menées entournage et en perçage. Aujourd’hui ces recherches s’étendent au cas du fraisage.Pour ceci, un nouveau dynamomètre à six composantes adapté au fraisage a été conçu, réalisé etétalonné. Une démarche expérimentale a alors été mise en place afin de modéliser le moment de coupeconsommateur de puissance. Ce moment est alors étudié dans une configuration de coupe orthogonale enfraisage. Un modèle expérimental du moment de coupe est alors proposé. Cette modélisation fait intervenir lasection de copeau réelle instantanée et un nouveau critère énergétique : la densité de moment. Une étude surles paramètres cinématiques réels de l’outil montre la nécessité de prendre en compte la section de copeauinstantanée réelle. Celle–ci est alors calculée à partir de la position réelle de l’outil déduite des donnéescinématiques extraites des codeurs de position des axes et de la broche de la machine outil. Les paramètresinfluents sur la densité de moment ont été mis en évidence par un plan d’expériences et une analyse de lavariance. Une modélisation de ce critère similaire aux coefficients spécifiques de coupe a par la suite étédéveloppée.Enfin, le bilan énergétique de l’opération de coupe étudiée est considéré. Une démarche pratiqued’évaluation rapide de la puissance maximale de coupe est présentée en intégrant la modélisation du momentproposée. L’intérêt et l’importance de la prise en compte du moment de coupe sont alors confirmés pourprédire et définir les énergies mises en jeu par le processus de coupe. / In the cutting process, during the chip formation, complex phenomena occur and the control of theenergy parameters is difficult. Information about these phenomena are given with the measurement of the sixcomponents of the mechanical actions. This dynamometer allows to measure the six mechanical actions (3forces and 3 moments) between the chip, the workpiece and the tool during the chip formation. Themeasurement of the moments at the tooth tip is not inclued in the classical cutting model.However, actual behaviour laws cannot express all the phenomena occurred during the chip formation.Thus, analytical or numerical cutting model taking into account these phenomena is not possible. Previousstudies have been performed in turning and drilling and allow to extend these works to milling.A new six components dynamometer suitable to milling have been designed and calibrated. Anexperimental approach is proposed in order to model the cutting moment involved in the cutting energybalance. The study is performed in orthogonal cutting configurations. A model of cutting moment is proposedand depends on the instantaneous undeformed chip section and a new criteria : the moment density. A studyon real kinematic parameters shows that the instantaneous undeformed chip section have to take intoaccount. The instantaneous undeformed chip section is computed with real position of the tool obtained withthe encoders of linear axes and spindle of the CNC Machine. Design of experiments and variance analysis haveshown influent parameters on the moment density. A model of the moment, close to specific pressurecoefficient, has been developed.Finally, the cutting energy balance of the milling operation used is studied. A practical approach includedthe moment model allow an accurately evaluation of the energy balance. In milling operation, the studyconfirms the cutting moment at the tool tip and shows the necessity to take into account moments in theenergy balance.
137

Dispositif didactique pour l'étude de pratiques culturelles à l'aide du roman migrant, Passages, d'Émile Ollivier : une recherche-développement

Février, Gilberte January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
138

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.
139

Le canal du capital bancaire, voie de transmission des chocs réels et financiers / The bank capital cannel, route of eal and financial shocks transmission

Nzengue Pegnet, Christian 18 June 2012 (has links)
Cette thèse est consacrée à l'étude de la transmission des chocs réels et financiers en Europe, en traitant le canal du capital bancaire. La démarche suivie consiste à combiner des approches théoriques et empiriques de façon à mettre en évidence empiriquement l'hétérogénéité de transmission au niveau européen et l'ampleur du canal du capital bancaire. Le premier chapitre consiste à faire un tour d’horizon sur les fonds propres et la structure financière des banques, tout en analysant leur impact au niveau micro et macroéconomique. D'après l’analyse de la littérature relative à ce champ, le processus de transmission semble bien influencé par la spécificité des banques et leur niveau de fonds propres réglementaires. La contrainte exercée sur ces derniers détermine l’ampleur de la transmission des chocs. Le deuxième chapitre est consacré à l'étude des déterminants de la réaction des banques face à un choc. D'après les résultats, le niveau ex ante des fonds propres mais également les différentes composantes du capital réglementaire influencent la réaction des banques. Le troisième chapitre analyse les effets de Bâle I et II sur le mécanisme de transmission des chocs à partir d’un modèle d’équilibre général. Les résultats des simulations montrent que la prise en compte simultanée d’un canal du capital bancaire et d’un mécanisme d’accélérateur financier amplifie la propagation des chocs monétaires à travers un effet prime de liquidité. Le dernier chapitre est consacré à examiner un aspect particulier de la réglementation prudentielle : la résolution des défaillances des institutions financières. L’accent est mis sur les banques d’importance systémique. L’analyse des politiques de résolution adoptées montre que ces dernières ne permettent pas de réduire le risque moral. Aussi, pour prévenir de leur défaut, des règles de fermeture sont mises en place. À cette fin, une modélisation théorique conduit à conclure que des sanctions monétaires, couplées à une surveillance accrue peuvent limiter les incitations des banques à prendre des risques excessifs. Cette présente thèse a apporté de nouveaux résultats par rapport à la littérature et elle a montré le rôle à court et long terme des différents éléments de la structure du bilan des banques résultant de l'estimation du modèle VECM. / In this thesis, we study the transmission of real and financial shocks in Europe focusing on the bank capital channel. In our approach, we consider both theoretical and empirical issues. The ai mis to empirically emphasize the heteregeneity in the transmission of shocks at a European level and the extent of the bank capital channel. In Chapter 1, we do a survey on the structure of bank capital and balance sheet to analyse their impact at micro and macro levels. Considering the existing literature on bank capital and transmission channel, the transmission process seems to be influenced by banks’ specificities and by their level of regulatory capital. Regulatory constraint on bank capital determines the magnitude of the transmission of shocks. In Chapter 2, we study the determinants of banks’ reaction to a shock. Or results show that, the ex ante level of capital and the various components of regulatory capital significantly impact banks’ behaviour. In Chapter 3, we focus on the impact of Basel I and II regulatory frameworks on the transmission of shocks from a general equilibrium model. The simulation results point out that considering simultaneously the bank capital channel and the financial accelerator mechanism increases the propagation of monetary shocks through the liquidity premium effect. In Chapter 4, we examine a singular aspect of the prudential regulation : the resolution of failing financial institutions. We focus on the systemic importance banks. Current policy statements have not reduced moral hazard behaviour of such financial institutions. Thus, to prevent the catastrophic consequences of their failure, bankruptcy laws have been adopted. Considering a theoretical model, we conclude that monetary sanctions, strengthen by stronger monitoring pressures may limit banks’ incentives to take excessive risks. This thesis provides new results to the existing literature. It emphasizes the role of the several components of bank balance sheet structure in both short and long runs, resulting from an estimated VECM.
140

Prise en compte de la flexibilité des ressources humaines dans la planification et l’ordonnancement des activités industrielles / Considering the flexibility of human resources in planning and scheduling industrial activities

Atalla El-Awady Attia, El-Awady 05 April 2013 (has links)
Le besoin croissant de réactivité dans les différents secteurs industriels face à la volatilité des marchés soulève une forte demande de la flexibilité dans leur organisation. Cette flexibilité peut être utilisée pour améliorer la robustesse du planning de référence d’un programme d’activités donné. Les ressources humaines de l’entreprise étant de plus en plus considérées comme le coeur des structures organisationnelles, elles représentent une source de flexibilité renouvelable et viable. Tout d’abord, ce travail a été mis en oeuvre pour modéliser le problème d’affectation multi-périodes des effectifs sur les activités industrielles en considérant deux dimensions de la flexibilité: L’annualisation du temps de travail, qui concerne les politiques de modulation d’horaires, individuels ou collectifs, et la polyvalence des opérateurs, qui induit une vision dynamique de leurs compétences et la nécessité de prévoir les évolutions des performances individuelles en fonction des affectations successives. La nature dynamique de l’efficacité des effectifs a été modélisée en fonction de l’apprentissage par la pratique et de la perte de compétence pendant les périodes d’interruption du travail. En conséquence, nous sommes résolument placés dans un contexte où la durée prévue des activités n’est plus déterministe, mais résulte du nombre des acteurs choisis pour les exécuter, en plus des niveaux de leur expérience. Ensuite, la recherche a été orientée pour répondre à la question : « quelle genre, ou quelle taille, de problème pose le projet que nous devons planifier? ». Par conséquent, les différentes dimensions du problème posé sont classées et analysés pour être évaluées et mesurées. Pour chaque dimension, la méthode d’évaluation la plus pertinente a été proposée : le travail a ensuite consisté à réduire les paramètres résultants en composantes principales en procédant à une analyse factorielle. En résultat, la complexité (ou la simplicité) de la recherche de solution (c’est-à-dire de l’élaboration d’un planning satisfaisant pour un problème donné) peut être évaluée. Pour ce faire, nous avons développé une plate-forme logicielle destinée à résoudre le problème et construire le planning de référence du projet avec l’affectation des ressources associées, plate-forme basée sur les algorithmes génétiques. Le modèle a été validé, et ses paramètres ont été affinés via des plans d’expériences pour garantir la meilleure performance. De plus, la robustesse de ces performances a été étudiée sur la résolution complète d’un échantillon de quatre cents projets, classés selon le nombre de leurs tâches. En raison de l’aspect dynamique de l’efficacité des opérateurs, le présent travail examine un ensemble de facteurs qui influencent le développement de leur polyvalence. Les résultats concluent logiquement qu’une entreprise en quête de flexibilité doit accepter des coûts supplémentaires pour développer la polyvalence de ses opérateurs. Afin de maîtriser ces surcoûts, le nombre des opérateurs qui suivent un programme de développement des compétences doit être optimisé, ainsi que, pour chacun d’eux, le degré de ressemblance entre les nouvelles compétences développées et les compétences initiales, ou le nombre de ces compétences complémentaires (toujours pour chacun d’eux), ainsi enfin que la façon dont les heures de travail des opérateurs doivent être réparties sur la période d’acquisition des compétences. Enfin, ce travail ouvre la porte pour la prise en compte future des facteurs humains et de la flexibilité des effectifs pendant l’élaboration d’un planning de référence. / The growing need of responsiveness for manufacturing companies facing the market volatility raises a strong demand for flexibility in their organization. This flexibility can be used to enhance the robustness of a baseline schedule for a given programme of activities. Since the company personnel are increasingly seen as the core of the organizational structures, they provide the decision-makers with a source of renewable and viable flexibility. First, this work was implemented to model the problem of multi-period workforce allocation on industrial activities with two degrees of flexibility: the annualizing of the working time, which offers opportunities of changing the schedules, individually as well as collectively. The second degree of flexibility is the versatility of operators, which induces a dynamic view of their skills and the need to predict changes in individual performances as a result of successive assignments. The dynamic nature of workforce’s experience was modelled in function of learning-by-doing and of oblivion phenomenon during the work interruption periods. We firmly set ourselves in a context where the expected durations of activities are no longer deterministic, but result from the number and levels of experience of the workers assigned to perform them. After that, the research was oriented to answer the question “What kind of problem is raises the project we are facing to schedule?”: therefore the different dimensions of the project are inventoried and analysed to be measured. For each of these dimensions, the related sensitive assessment methods have been proposed. Relying on the produced correlated measures, the research proposes to aggregate them through a factor analysis in order to produce the main principal components of an instance. Consequently, the complexity or the easiness of solving or realising a given scheduling problem can be evaluated. In that view, we developed a platform software to solve the problem and construct the project baseline schedule with the associated resources allocation. This platform relies on a genetic algorithm. The model has been validated, moreover, its parameters has been tuned to give the best performance, relying on an experimental design procedure. The robustness of its performance was also investigated, by a comprehensive solving of four hundred instances of projects, ranked according to the number of their tasks. Due to the dynamic aspect of the workforce’s experience, this research work investigates a set of different parameters affecting the development of their versatility. The results recommend that the firms seeking for flexibility should accept an amount of extra cost to develop the operators’ multi functionality. In order to control these over-costs, the number of operators who attend a skill development program should be optimised, as well as the similarity of the new developed skills relative to the principal ones, or the number of the additional skills an operator may be trained to, or finally the way the operators’ working hours should be distributed along the period of skill acquisition: this is the field of investigations of the present work which will, in the end, open the door for considering human factors and workforce’s flexibility in generating a work baseline program.

Page generated in 0.0539 seconds