Spelling suggestions: "subject:"logistique"" "subject:"logistiques""
441 |
Vitesse, accessibilité et étalement urbain ; analyse et application à l'aire urbaine dijonnaiseEnault, Cyril 29 November 2003 (has links) (PDF)
La thématique de la ville est abordée essentiellement par le biais de la densité résidentielle. Cette notion est analysée d'un point de vue purement conceptuel, puis plus théorique (faisant ainsi usage de modèles économétriques assez classiques : Clark, Newling) pour enfin être appliquée à l'agglomération dijonnaise ainsi qu'à son aire urbaine. On dégage ainsi les grandes structures urbaines faisant apparaître une ville intermédiaire entre le modèle monocentrique et polycentrique. Les deux composantes sont analysées successivement à partir de la notion de densité résidentielle. Prenant comme hypothèse que les villes sont dynamiques, la seconde étape est celle de l'étalement urbain. Une première approche introductive s'attache à comprendre les grands principes de l'extension des agglomérations ainsi que les facteurs de l'étalement urbain. Ensuite, l'ensemble de ces éléments théoriques est confronté à la réalité historique. En prenant comme file directeur l'agglomération dijonnaise, on étudie les processus d'extension des villes européennes. L'ensemble des phases historiques est analysé précisément : Antiquité, Moyen Age, Renaissance, Révolution industrielle, première moitié du XXième siècle, seconde moitié du XXième siècle et enfin période contemporaine : phénomène de périurbanisation. Au-delà d'une approche très classique et qualitative de l'étalement urbain, l'analyse historique permet de dégager quantitativement une logique de croissance surfacique. Restant toujours sur la thématique de l'étalement urbain, une autre approche consiste à étudier l'extension contemporaine des villes par le biais des densités de population et principalement à partir du modèle de Bussière et de ses variantes (amendé, sectorisé, segmenté, quadratique). On étudie alors le problème à partir des populations cumulées à partir du centre. L'apport de cette recherche est l'identification d'un phénomène de rupture urbaine et périurbaine nécessitant un nouvel amendement du modèle de Bussière. L'approche dynamique permet, en outre, de dégager ce que l'on a coutume d'appeler les logiques de la croissance urbaine. Après une approche assez économétrique de l'étalement urbain, une solution alternative est proposées à travers la notion de dilution urbaine, assez peu employée par les géographes. Un état des lieux conceptuel est établi puis, évoquant le problème de l'analyse urbaine fractale, un modèle est proposé pour la notion de dilution. La fonction logistique décroissante est alors utilisée dans le but de mieux cerner l'organisation de la ville, de l'espace périurbain et leur évolution. Par ailleurs ce modèle de dilution a été testé sur 25 villes françaises autres que Dijon. Il fonctionne systématiquement avec un très bon coefficient de détermination. La seconde thématique abordée dans cette recherche est celle des transports. On évoque tout d'abord ce problème d'un point de vue descriptif en étudiant l'organisation d'un réseau routier particulier : celui de l'aire urbaine dijonnaise. Il semble se dégager, d'un point de vue morphologique, une logique radiale de la densité routière. L'ensemble des paramètres du réseau est analysé : courbure des routes, répartition des feux de circulation, portion urbaine des voies de circulation, type de voies, trafic et pourcentage de poids lourds. Enfin une étude de cas oppose deux radiales d'accessibilité fondamentalement différentes. Après cette partie essentiellement descriptive, la seconde étape est d'envisager la question des transports par le biais de la notion de vitesse et des temps d'accès. Une partie conceptuelle sur les vitesses permet de fixer le vocabulaire et apporte des éléments sur l'art du trafic. Une partie plus technique construit un modèle de calcul des vitesses théoriques reposant sur le modèle logistique et sur la courbe de congestion débit-vitesse. Les vitesses calculées reposant également sur un modèle stochastique sont analysées à partir de la statistique descriptive (écart type, moyenne, extremum). La moyenne est retenue pour la suite et intégrée dans le SIG pour les calculs de plus court chemins. Une carte d'accessibilité au centre est mise en place. La troisième thématique est transversale et ainsi analyse les relations entre les transports et l'étalement urbain. Une première approche consiste à envisager la relation d'un point de vue purement conceptuel et qualitatif en mettant en place un schéma théorique du couple densité-vitesse. Une seconde approche, analyse la question d'un point de vue plus technique en montrant dans un premier temps que la vitesse routière répond à une logique radiale. Au passage, il est montré que les temps d'accès reposent sur l'intégration de l'inverse de la fonction vitesse. L'ensemble des faisceaux est étudié. Partant de la fonction vitesse, et en résolvant le système non linéaire composé du modèle de Clark et du modèle de vitesse, on met au point une relation liant vitesse et densité résidentielle. Par la suite, les variations de chaque paramètre sont envisagées. Pour étudier la relation entre les temps d'accès et l'étalement urbain, le modèle de Bussière est à nouveau mobilisé dans la mesure ou l'on substitue la distance par le temps. Le même procédé est envisagé pour le modèle de dilution. Ces deux modèles permettent de mettre en évidence un phénomène de rupture assez conforme à la loi de Zahavi. Enfin, toujours dans la même thématique, la question du local est abordée dans l'aire d'étude du nord dijonnais. Le temps d'accès après la mise en service d'une quatre voies est simulé. On effectue ainsi une simulation de l'impact de la mise en service d'une deux fois deux voies sur la périurbanisation
|
442 |
Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d’expression génétiqueChekouo Tekougang, Thierry 08 1900 (has links)
Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien.
Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants.
À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche.
Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement. / Clustering is a classical method to analyse gene expression data. When applied to the rows (e.g. genes), each column belongs to all clusters. However, it is often observed that the genes of a subset of genes are co-regulated and co-expressed in a subset of conditions, but behave almost independently under other conditions. For these reasons, biclustering techniques have been proposed to look for sub-matrices of a data matrix. Biclustering is a simultaneous clustering of rows and columns of a data matrix. Most of the biclustering algorithms proposed in the literature have no statistical foundation. It is interesting to pay attention to the underlying models of these algorithms and develop statistical models to obtain significant biclusters. In this thesis, we review some biclustering algorithms that seem to be most popular. We group these algorithms in accordance to the type of homogeneity in the bicluster and the type of overlapping that may be encountered. We shed light on statistical models that can justify these algorithms. It turns out that some techniques can be justified in a Bayesian framework.
We develop an extension of the biclustering plaid model in a Bayesian framework and we propose a measure of complexity for biclustering. The deviance information criterion (DIC) is used to select the number of biclusters. Studies on gene expression data and simulated data give satisfactory results.
To our knowledge, the biclustering algorithms assume that genes and experimental conditions are independent entities. These algorithms do not incorporate prior biological information that could be available on genes and conditions. We introduce a new Bayesian plaid model for gene expression data which integrates biological knowledge and takes into account the pairwise interactions between genes and between conditions via a Gibbs field. Dependence between these entities is made from relational graphs, one for genes and another for conditions. The graph of the genes and conditions is constructed by the k-nearest neighbors and allows to define a priori distribution of labels as auto-logistic models. The similarities of genes are calculated using gene ontology (GO). To estimate the parameters, we adopt a hybrid procedure that mixes MCMC with a variant of the Wang-Landau algorithm. Experiments on simulated and real data show the performance of our approach.
It should be noted that there may be several variables of noise in microarray data. These variables may mask the true structure of the clustering. Inspired by the plaid model, we propose a model that simultaneously finds the true clustering structure and identifies discriminating variables. We propose a new model to solve the problem. It assumes that an observation can be explained by more than one cluster. This problem is addressed by using a binary latent vector, so the estimation is obtained via the Monte Carlo EM algorithm. Importance Sampling is used to reduce the computational cost of the Monte Carlo sampling at each step of the EM algorithm. Numerical examples demonstrate the usefulness of these methods in terms of variable selection and clustering. / Les simulations ont été implémentées avec le programme Java.
|
443 |
Étude des déterminants démographiques de l’hypotrophie fœtale au QuébecFortin, Émilie 04 1900 (has links)
Cette recherche vise à décrire l’association entre certaines variables démographiques telles que l’âge de la mère, le sexe, le rang de naissance et le statut socio-économique – représenté par l’indice de Pampalon – et l’hypotrophie fœtale au Québec. L’échantillon est constitué de 127 216 naissances simples et non prématurées ayant eu lieu au Québec entre le 1er juillet 2000 et le 30 juin 2002. Des régressions logistiques portant sur le risque d’avoir souffert d’un retard de croissance intra-utérine ont été effectuées pour l’ensemble du Québec ainsi que pour la région socio-sanitaire (RSS) de Montréal.
Les résultats révèlent que les enfants de premier rang et les enfants dont la mère était âgée de moins de 25 ans ou de 35 ans et plus lors de l’accouchement ont un risque plus élevé de souffrir d’hypotrophie fœtale et ce dans l’ensemble du Québec et dans la RSS de Montréal. De plus, les résultats démontrent que le risque augmente plus la mère est défavorisée. Puisque l’indice de Pampalon est un proxy écologique calculé pour chaque aire de diffusion, les intervenants en santé publique peuvent désormais cibler géographiquement les femmes les plus à risque et adapter leurs programmes de prévention en conséquence. Ainsi, le nombre de cas d’hypotrophie fœtale, voire même la mortalité infantile, pourraient être réduits. / This study describes the association between demographic variables such as the mother’s age, the child’s gender and birth order, and the socio-economic status – that can now be assessed by the Pampalon Index – with intrauterine growth restriction (IUGR) in the province of Quebec. The analyses are based on a sample of 127,216 singletons and term births that occurred in the province of Quebec between July 1st, 2000 and June 30th, 2002. Logistics regressions on the risk of having suffered from IUGR were produced for the entire province of Quebec and for the health region of Montreal.
In the province of Quebec and in the health region of Montreal, the results reveal that the risk of IUGR is higher for first-born infants, and for infants whose mother was under 25 years of age or aged 35 years and older. Moreover, the risk of IUGR increases with poverty. Since the Pampalon Index is calculated for each dissemination area, public health interventions can now target the most vulnerable women and reduce the number of IUGR cases or even infant mortality.
|
444 |
New statistical methods to assess the effect of time-dependent exposures in case-control studiesCao, Zhirong 12 1900 (has links)
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps.
Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac.
Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations.
Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps.
Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins / Background: Case-control studies are very often used by epidemiologists to assess the impact of specific exposure(s) on a particular disease. These exposures may be represented by several time-dependent covariates and new methods are needed to accurately estimate their effects. Indeed, conventional logistic regression, which is the standard method to analyze case-control data, does not directly account for changes in covariate values over time. By contrast, survival analytic methods such as the Cox proportional hazards model can directly incorporate time-dependent covariates representing the individual entire exposure histories. However, it requires some careful manipulation of risk sets because of the over-sampling of cases, compared to controls, in case-control studies. As shown in a preliminary simulation study, the optimal definition of risk sets for the analysis of case-control data remains unclear and has to be investigated in the case of time-dependent variables.
Objective: The overall objective is to propose and to investigate new versions of the Cox model for assessing the impact of time-dependent exposures in case-control studies, and to apply them to a real case-control dataset on lung cancer and smoking.
Methods: I identified some potential new risk sets definitions (the weighted Cox model and the simple weighted Cox model), in which different weights were given to cases and controls, in order to reflect the proportions of cases and non cases in the source population. The properties of the estimates of the exposure effects that result from these new risk sets definitions were investigated through a simulation study. Various aspects of exposure were generated (intensity, duration, cumulative exposure value). The simulated case-control data were then analysed using different versions of Cox’s models corresponding to existing and new definitions of risk sets, as well as with standard logistic regression, for comparison purpose. The different regression models were then applied to real case-control data on lung cancer. The estimates of the effects of different smoking variables, obtained with the different methods, were compared to each other, as well as to simulation results.
Results: The simulation results show that the estimates from the new proposed weighted Cox models, especially those from the weighted Cox model, are much less biased than the estimates from the existing Cox models that simply include or exclude future cases. In addition, the weighted Cox model was slightly, but systematically, less biased than logistic regression. The real life application shows some greater discrepancies between the estimates of the proposed Cox models and logistic regression, for some smoking time-dependent covariates.
Conclusions: The results suggest that the new proposed weighted Cox models could be an interesting alternative to logistic regression for estimating the effects of time-dependent exposures in case-control studies.
|
445 |
Analyse par apprentissage automatique des réponses fMRI du cortex auditif à des modulations spectro-temporellesBouchard, Lysiane 12 1900 (has links)
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées). / The application of linear machine learning classifiers to the analysis of brain imaging data (fMRI) has led to several interesting breakthroughs in recent years. These classifiers combine the responses of the voxels to detect and categorize different brain states. They allow a more agnostic analysis than conventional fMRI analysis that systematically treats weak and distributed patterns as unwanted noise. In this project, we use such classifiers to validate an hypothesis concerning the encoding of sounds in the human brain. More precisely, we attempt to locate neurons tuned to spectral and temporal modulations in sound. We use fMRI recordings of brain responses of subjects listening to 49 different spectro-temporal modulations. The analysis of fMRI data through linear classifiers is not yet a standard procedure in this field. Thus, an important objective of this project, in the long term, is the development of new machine learning algorithms specialized for neuroimaging data. For these reasons, an important part of the experiments is dedicated to studying the behaviour of the classifiers. We are mainly interested in 3 standard linear classifiers, namely the support vectors machine algorithm (linear), the logistic regression algorithm (regularized) and the naïve bayesian gaussian model (shared variances).
|
446 |
La lutte pour l'espace caraïbe et la façade atlantique de l'Amérique centrale et du sud (1672-1763)Buchet, Christian. January 1991 (has links)
Thesis (doctoral)--Université de Paris-Sorbonne (Paris IV), 1990. / "Tirage commercial de 400 exemplaires"--V. 1-2, t.p. verso. "Sources et bibliographie": v. 1, p. 9-66.
|
447 |
La lutte pour l'espace caraïbe et la façade atlantique de l'Amérique centrale et du sud (1672-1763)Buchet, Christian. January 1991 (has links)
Thesis (doctoral)--Université de Paris-Sorbonne (Paris IV), 1990. / "Tirage commercial de 400 exemplaires"--V. 1-2, t.p. verso. "Sources et bibliographie": v. 1, p. 9-66.
|
448 |
Développement de stratégies de maintenance prévisionnelle de systèmes multi-composants avec structure complexe / Predictive maintenance strategies for multi-component systems with complex structureNguyen, Kim Anh 16 October 2015 (has links)
Aujourd'hui, les systèmes industriels deviennent de plus en plus complexes. Cette complexité est due d’une part à la structure du système qui ne se résume pas à des structures classiques en fiabilité, d’autre part à la prise en compte de composants présentant des phénomènes de dégradation graduelle que des systèmes de monitoring permettent de surveiller. Ceci mène à l'objectif de cette thèse portant sur le développement des stratégies de maintenance prévisionnelle pour des systèmes multi-composants complexes. Les politiques envisagées proposent notamment des stratégies de regroupement de composants permettant de tirer des dépendances économiques identifiées. Des facteurs d'importance permettant de prendre en compte la structure du système et la dépendance économique sont développés et combinés avec les évaluations de fiabilité prévisionnelle des composants pour l’élaboration de règles de décision de regroupement. De plus, un couplage des règles de décision de maintenance et de gestion des stocks est également étudié. L’ensemble des études menées montrent l’intérêt de la prise en compte de la fiabilité prévisionnelle des composants, des dépendances économiques et de la structure complexe du système dans l'aide à la décision de maintenance et de gestion des stocks. L’avantage des stratégies développées est vérifié en les comparant à d’autres existantes dans la littérature / Today, industrial systems become more and more complex. The complexity is due partly to the structure of the system that cannot be reduced to classic structure reliability (series structures, parallel structures, series-parallel structures, etc), secondly the consideration of components with gradual degradation phenomena that can be monitored. This leads to the main purpose of this thesis on the development of predictive maintenance strategies for complex multi-component systems. The proposed policies provide maintenance grouping strategies to take advantage of the economic dependence between components. The predictive reliability of components and importance measures allowing taking into account the structure of the system and economic dependence are developed to construct the grouping decision rules. Moreover, a joint decision rule for maintenance and spare parts provisioning is also studied.All the conducted studies show the interest in the consideration of the predictive reliability of components, economic dependencies as well as complex structure of the system in maintenance decisions and spare parts provisioning. The advantage of the developed strategies is confirmed by comparing with the other existing strategies in the literature
|
449 |
Achats d’articles Classe C : le cas ALSTOM : Externalisation partielle des fonctions Achats-Approvisionnement-Logistique / Purchasing of Class C products : ALSTOM Study Case : Partial outsourcing of the Purchasing-Logistics-Supply / Compras de artículos de Clase C : ALSTOM : Externalización parcial de la Compra-Logística-Suministro / برون¬سپاری بخشی از مدیریت خرید - پشتیبانی- تأمین قطعات گروه c : خرید قطعات گروه c، مطالعۀ موردی : آلستونKamyabi Mask, Aflatoun 24 March 2015 (has links)
Cette thèse porte sur l’externalisation de la gestion achats-approvisionnements-logistiques des articles dits « Classe C » sur un site ALSTOM. La Classe C chez ALSTOM est une famille d’achats regroupant des articles hétérogènes à faible valeur unitaire (marchés, technologies, prix, de volumes, poids). Mobilisant la Théorie des Coûts de Transaction, la Théorie de l’Agence, ainsi que les travaux sur la fonction Achat et l’externalisation, cette recherche analyse les facteurs déterminants et les risques liés à l’externalisation des activités, notamment des Achats, et ce en vue d’améliorer la gestion externalisée des achats et les approvisionnements de la classe C. L'auteur de ce travail, praticien-chercheur, privilégie la Recherche Action. Il a fondé son enquête sur des entretiens demi-directifs auprès de professionnels impliqués dans la gestion de la Classe C, et abouti à des résultats qui mettent non seulement en évidence les problèmes de redéfinition du périmètre externalisé, des ressources, de la fiabilité de l’expression des besoins, du contrôle et de la mesure de la performance, mais permettent aussi de suggérer des solutions aux problèmes mentionnés, comme par exemple la définition de la classe C et de son périmètre. / This research is devoted to the outsourcing of Sourcing-Supply-Logistics management of articles called "C Class" at ALSTOM´s. ALSTOM´s C-Class is a purchasing family that groups items with low unit value and heterogeneous (markets, technologies, prices, volumes and weights). By utilizing the Transaction Costs Theory and the Agency Theory, as well as some case-studies on the purchasing function and the outsourcing, this thesis analyzes the determinants and risks associated with outsourcing of activities, including purchasing, in order to improve the outsourced management of purchasing and supply of C class. Its author, as a practitioner-researcher, favors Action Research. He based his investigation on semi-structured interviews with professionals involved in the management of the C-Class, produced results that not only the problems of redefining the scope of outsourced resources, reliability of expression of needs, control and performance measurement, but also suggest solutions to the aforementioned problems, such as the definition of class C and its perimeter. / Esta tesis está dedicada a la externalización de la adquisición, suministro y gestión de logística de los artículos llamados "Clase C" en un ALSTOM sitio. La Clase C en ALSTOM es una familia de compras que agrupamiento artículos con bajo valor unitario y heterogéneos mercados, tecnologías, precios, volúmenes, pesos. Movilizando la Teoría de Costes de Transacción, la Teoría de la Agencia, así como algunos trabajos sobre la función de compras y la contratación externa, esta investigación analiza los factores determinantes y los riesgos de la externalización de actividades, incluyendo las compras, para mejorar la adquisición del externalizado y suministro de Clase C. El autor, practicante-investigador, recurrió a la investigación-acción y basó su investigación en entrevistas semi-estructuradas con los profesionales que intervienen en la gestión de la Clase C y produjo resultados que no sólo relieven los problemas relacionados con el alcance de los recursos externalizados, la fiabilidad de la expresión de las necesidades y el control y la medición del desempeño, pero ofrecen también soluciones a los problemas mencionados, tales como la definición de la Clase C y su perímetro. / آلستوم ترابری، برون¬سپاری، گروهc، خرید، ذخیره، پشتیبانی، سازمان¬دهی، راه¬بُرد، شاغل-پژوهشگر، پژوهش- اقدام.این پشتیبانی - تأمین آن دسته از قطعاتی که بنام گروه"c" در پایگاه¬های آلستوم رده¬بندی شده¬اند، می¬پردازد. گروه "c" در این پایگاه¬ها، مجموعۀ قطعات خرید با ارزش کم برای هر واحد است که دارای بازار، فناوری، بها، میزان سفارش، وزن و اندازۀ متفاوت هستند. با کاربرد نظریه "هزینۀ مبادله" و نظریه "نمایندگی" همچنین، موردکاوی¬های کارکرد خرید و برون¬سپاری، این پژوهش، عوامل تعیین¬کننده و ریسکهای مربوط به برون¬سپاری فعالیت¬ها، شامل خریدها را جهت بهبود مدیریت برون¬سپاری¬شدۀ خریدها و تأمین گروه "c" مورد تحلیل قرار می¬دهد. نگارندۀ این پایان¬نامه، که خود شاغل- پژوهشگر است، روش پژوهش- اقدام¬ را ترجیح می¬دهد. از این رو کاوش خود را بر پایۀ مصاحبه¬های نیمه¬رهبری شده با کارکنان حرفه¬ای که شخصاً درگیر مدیریت خرید گروه "c" هستند، قرار داده و به نتایجی دست یافته است که نه تنها مسائل بازتعریف قلمرو منابع برون¬سپاری شده، قابلیت اطمینان بیان نیازها، کنترل و اندازه¬گیری عملکرد را آشکار می¬سازد، بلکه راهکارهایی بمنظور ترفیع مسائل پایان¬نامه به بررسی برون¬سپاری مدیریت خرید - مذکور،
|
450 |
Analyse par apprentissage automatique des réponses fMRI du cortex auditif à des modulations spectro-temporellesBouchard, Lysiane 12 1900 (has links)
No description available.
|
Page generated in 0.0637 seconds