• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2920
  • 689
  • 348
  • 55
  • 50
  • 49
  • 10
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 4418
  • 1911
  • 982
  • 646
  • 483
  • 398
  • 372
  • 363
  • 355
  • 354
  • 307
  • 306
  • 295
  • 292
  • 276
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

An integrated planning model for multi-supplier, multi-facility, multi-customer, multi-product and multi-period : application to the wood furniture industry

Ouhimmou, Mustapha 16 April 2018 (has links)
Typiquement, un réseau de création de valeur dans l'industrie du meuble en bois, est composé de fournisseurs de billes de bois, de scieries, de séchoirs, d'usines de meubles, de centres de distribution et de détaillants. Dans cette thèse, nous nous concentrons sur l'étude du réseau qui assure l'approvisionnement des usines de meubles en bois. La problématique à laquelle font face les entreprises de ce réseau se situe principalement au niveau de la synchronisation des flux de matière. Ces derniers doivent respecter les contraintes de capacité, de procédés, de transport et la diversité des produits, pour satisfaire la demande. La planification, dans ce contexte, repose sur une vision locale ce qui affecte la performance globale du réseau. L'objectif de cette thèse est de proposer un modèle de planification intégrée dans un contexte, multifoumisseurs, multiusines, multiproduits, multiclients et multipériodes, qui vise la synchronisation des flux, et la maximisation de la performance globale tout en respectant les différentes contraintes du réseau. Nous proposons un modèle générique du problème de planification intégrée qui permet de déterminer les décisions tactiques d'approvisionnement, d'inventaire, de flux de matière et de sous-traitance. Ce modèle est un programme linéaire mixte en nombres entiers de grande taille. Nous avons développé une heuristique basée sur la décomposition dans le temps qui exploite l'aspect multipériodes du problème de planification. Nous avons aussi proposé deux solutions basées sur la décomposition de Benders et la décomposition croisée pour réduire le temps de résolution. Enfin, ce modèle a été validé en utilisant les données réelles de l'entreprise partenaire du projet et les résultats, montrent des réductions potentielles du coût total des opérations de l'ordre de 22%. L'approche de planification intégrée adoptée ainsi que les méthodes de résolution proposées dans cette thèse peuvent être exploitées pour la planification des réseaux dans d'autres secteurs d'activités ayant des similarités avec la problématique traitée dans cette thèse.
502

Planification stratégique d'un réseau logistique : cas d'une entreprise forestière au Québec et de ses activités d'approvisionnement

Savard, Mylène 18 April 2018 (has links)
La planification stratégique de l'approvisionnement forestier est une activité complexe permettant à l'entreprise de fournir en matière première ses installations de transformation. Il est reconnu que les modèles mathématique de planification stratégique proposés à ce jour n'intègrent pas l'approvisionnement forestier en tant que variable décisionnelle mais le considèrent plutôt comme une contrainte. Les caractéristiques spatiales et temporelles de l'approvisionnement forestier sont aussi souvent ignorées, de même que la demande des produits sur les marchés et l'incertitude reliée aux activités forestières. Pour faciliter l'intégration éventuelle de ces éléments dans un modèle mathématique, ce mémoire présente une étude de cas sur la chaîne de création de valeur de l'industrie forestière, plus particulièrement au niveau de l'entreprise et de son approvisionnement forestier. L'objectif est de décrire, par un modèle conceptuel, le processus décisionnel stratégique de l'entreprise et les variables reliées, de l'approvisionnement jusqu'aux marchés.
503

Trois essais sur le contenu informatif de la distribution des rendements implicite aux prix des options = : Three essays on the informative content of the option-implied return distribution / Three essays on the informative content of the option-implied return distribution

Toupin, Dominique 31 January 2021 (has links)
Chapitre 1 - Prévoir les rendements internationaux à l'aide de mesures de risque implicites aux options Ce chapitre examine la prévisibilité des rendements d’indices internationaux à l'aide d'informations quotidiennes en utilisant des régressions prédictives et de la prévision hors échantillon. Nous documentons le pouvoir prédictif significatif de la prime de risque de variance (VRP), de la mesure de risque généralisé (GR) et des moments d'ordre supérieur pour des horizons allant de 1 à 250 jours. Ces quatre mesures de risque, qui saisissent les «craintes» cumulatives du marché, fonctionnent bien aux États-Unis et à l'étranger. VRP et GR sont des prédicteurs significatifs et complémentaires pour plusieurs horizons, y compris ceux inférieurs à un mois (VRP) ainsi que des horizons plus lointains (GR). L'asymétrie et la kurtose sont significatifs pour plusieurs pays à travers de multiples horizons. Les calculs des gains d'utilité confirment l'importance économique de ces variables à l'échelle internationale. Chapitre 2 - Prévision de la volatilité des indices boursiers à l'aide de distributions récupérées à l’aide du théorème de Ross Le théorème de récupération montre que les données d’options peuvent révéler les véritables attentes du marché. Nous adaptons cette approche aux données d'options sur indices internationaux (S&P500, FTSE, CAC, SMI et DAX) et séparons la volatilité implicite en volatilité attendue récupérée par Ross et un proxy relié aux préférences des investisseurs pour le risque. Nous étudions les performances de prévision de la volatilité de ces variables, construites au niveau national et international. Les résultats montrent que les prévisions sont significativement améliorées et celles-ci fournissent de nouvelles informations sur la dynamique internationale des attentes et des préférences en matière de risque. Pour tous les indices, les modèles utilisant des mesures globales de Ross sont les plus performantes. Les résultats suggèrent que le théorème de récupération est empiriquement utile. Chapitre 3 - Le facteur d’escompte stochastique contemporain Ce chapitre étudie le facteur d’escompte stochastique contemporain obtenu en appliquant le théorème de récupération aux options de l'indice S&P500. Comme pour la littérature existante sur le casse-tête du facteur d’escompte stochastique, je trouve que les facteurs récupérés sont en forme de U, mais seulement une partie du temps. Les différentes formes observées pour les facteurs d’escompte stochastique semblent être regroupées dans le temps, ce qui indique qu'elles sont une véritable caractéristique des préférences face au risque et non pas seulement un artefact créé par des estimations bruyantes. Bien que les facteurs contemporains récupérés ne puissent pas prédire de manière significative les rendements futurs réalisés sur l'ensemble de la distribution, c’est possible pour les 3 premiers quartiles. Un praticien ayant besoin d'une mesure instantanée du risque de perte pourrait donc utiliser le théorème de Ross. / Chapter 1 - The sum of all fears: forecasting international returns using option-implied risk measures This chapter investigates international index return predictability using daily-updated option-implied information in predictive regressions and out-of-sample forecasts. We document the significant predictive power of the variance risk premium (VRP), Generalized Riskiness (GR), and higher-order moments for horizons ranging from 1 to 250 days. These four risk metrics, which capture cumulative market “fears”, perform well in the US and internationally. VRP and GR are significant and complementary predictors for several horizons, including under one month (VRP) and longer horizons (GR). Risk-neutral skewness and kurtosis are significant for several countries across multiple horizons. Utility gain calculations confirm the economic significance of these riskneutral variables internationally. Chapter 2 - Forecasting market index volatility using Ross-recovered distributions The recovery theorem shows that option data can reveal the market’s true (physical) expectations. We adapt this approach to international index options data (S&P500, FTSE, CAC, SMI, and DAX) and separate implied volatility into Ross-recovered expected volatility and a risk preference proxy. We investigate the volatility forecasting performance of these variables, constructed domestically or globally. The results show evidence of significantly improved forecasts, and yield new insights on the international dynamics of risk expectations and preferences. Across indices, models using Ross-recovered, value-weighted global measures of risk preferences perform best. The findings suggest that the recovery theorem is empirically useful. Chapter 3 – The contemporaneous pricing kernel This chapter investigates the contemporaneous pricing kernel obtained by applying the recovery theorem to options on the S&P500 index. Similarly to the literature on the pricing kernel puzzle, I find evidence that the recovered pricing kernels are U-shape, but only some of the time. The different shapes observed for the recovered kernels appear to be clustered in time, indicating that they are a genuine feature of risk preferences and not just an artifact created by noisy pricing kernel estimates. Although the recovered contemporaneous kernels cannot significantly predict future realized returns over the whole distribution, they are successful for the first 3 quartiles. A practitioner needing an instantaneous measure of downside risk could therefore obtain such information by applying the recovery theorem to options data.
504

Data reconciliation for mineral and metallurgical processes : Contributions to uncertainty tuning and dynamic balancing : Application to control and optimization

Vasebi, Amir 23 April 2018 (has links)
Pour avoir un fonctionnement de l'usine sûr et bénéfique, des données précises et fiables sont nécessaires. D'une manière générale, une information précise mène à de meilleures décisions et, par conséquent, de meilleures actions pour aboutir aux objectifs visés. Dans un environnement industriel, les données souffrent de nombreux problèmes comme les erreurs de mesures (autant aléatoires que systématiques), l'absence de mesure de variables clés du procédé, ainsi que le manque de consistance entre les données et le modèle du procédé. Pour améliorer la performance de l'usine et maximiser les profits, des données et des informations de qualité doivent être appliquées à l'ensemble du contrôle de l'usine, ainsi qu'aux stratégies de gestion et d'affaires. Comme solution, la réconciliation de données est une technique de filtrage qui réduit l'impact des erreurs aléatoires, produit des estimations cohérentes avec un modèle de procédé, et donne également la possibilité d'estimer les variables non mesurées. Le but de ce projet de recherche est de traiter des questions liées au développement, la mise en œuvre et l'application des observateurs de réconciliation de données pour les industries minéralurgiques et métallurgiques. Cette thèse explique d’abord l'importance de régler correctement les propriétés statistiques des incertitudes de modélisation et de mesure pour la réconciliation en régime permanent des données d’usine. Ensuite, elle illustre la façon dont les logiciels commerciaux de réconciliation de données à l'état statique peuvent être adaptés pour faire face à la dynamique des procédés. La thèse propose aussi un nouvel observateur de réconciliation dynamique de données basé sur un sous-modèle de conservation de la masse impliquant la fonction d'autocovariance des défauts d’équilibrage aux nœuds du graphe de l’usine. Pour permettre la mise en œuvre d’un filtre de Kalman pour la réconciliation de données dynamiques, ce travail propose une procédure pour obtenir un modèle causal simple pour un circuit de flottation. Un simulateur dynamique basé sur le bilan de masse du circuit de flottation est développé pour tester des observateurs de réconciliation de données et des stratégies de contrôle automatique. La dernière partie de la thèse évalue la valeur économique des outils de réconciliation de données pour deux applications spécifiques: une d'optimisation en temps réel et l’autre de commande automatique, couplées avec la réconciliation de données. En résumé, cette recherche révèle que les observateurs de réconciliation de données, avec des modèles de procédé appropriés et des matrices d'incertitude correctement réglées, peuvent améliorer la performance de l'usine en boucle ouverte et en boucle fermée par l'estimation des variables mesurées et non mesurées, en atténuant les variations des variables de sortie et des variables manipulées, et par conséquent, en augmentant la rentabilité de l'usine. / To have a beneficial and safe plant operation, accurate and reliable plant data is needed. In a general sense, accurate information leads to better decisions and consequently better actions to achieve the planned objectives. In an industrial environment, data suffers from numerous problems like measurement errors (either random or systematic), unmeasured key process variables, and inconsistency between data and process model. To improve the plant performance and maximize profits, high-quality data must be applied to the plant-wide control, management and business strategies. As a solution, data reconciliation is a filtering technique that reduces impacts of random errors, produces estimates coherent with a process model, and also gives the possibility to estimate unmeasured variables. The aim of this research project is to deal with issues related to development, implementation, and application of data reconciliation observers for the mineral and metallurgical industries. Therefore, the thesis first presents how much it is important to correctly tune the statistical properties of the model and measurement uncertainties for steady-state data reconciliation. Then, it illustrates how steady-state data reconciliation commercial software packages can be used to deal with process dynamics. Afterward, it proposes a new dynamic data reconciliation observer based on a mass conservation sub-model involving a node imbalance autocovariance function. To support the implementation of Kalman filter for dynamic data reconciliation, a procedure to obtain a simple causal model for a flotation circuit is also proposed. Then a mass balance based dynamic simulator of froth flotation circuit is presented for designing and testing data reconciliation observers and process control schemes. As the last part of the thesis, to show the economic value of data reconciliation, two advanced process control and real-time optimization schemes are developed and coupled with data reconciliation. In summary, the study reveals that data reconciliation observers with appropriate process models and correctly tuned uncertainty matrices can improve the open and closed loop performance of the plant by estimating the measured and unmeasured process variables, increasing data and model coherency, attenuating the variations in the output and manipulated variables, and consequently increasing the plant profitability.
505

L'organisation des dynamiques de services professionnels : logique de rationalisation, cadre de gestion et formes de collégialité. À partir d'une recherche intervention dans un cabinet d'expertise et de conseil

Gand, Sébastien 22 September 2008 (has links) (PDF)
Cette thèse porte sur l'étude des rationalisations contemporaines des Entreprises de Services Professionnels (ESP). L'étude du phénomène s'appuie sur une recherche intervention menée durant trois ans au sein d'un cabinet d'expertise et de conseil auprès des comités d'entreprise qui a la particularité de fonctionner de manière démocratique (le cabinet X). Dans un contexte de transformation profonde de son activité, le cabinet X est confronté à une crise dont l'origine se trouve dans les limites de l'autonomie traditionnelle des consultants - l'" artisanat intellectuel ". La première partie construit des cadres d'analyses issus d'une revue de littérature dans les champs de la sociologie des professions et des travaux en économie et gestion des services professionnels. Il est montré que si la crise de l'artisanat intellectuel n'est pas un phénomène nouveau, les voies de rationalisation présentes dans la littérature ne dessinent pas de logique de rationalisation univoque et complète. Ceci conduit alors à ré-ouvrir la problématique des voies de rationalisation possibles pour dépasser les limites de l'artisanat intellectuel. Dans une seconde partie, la problématique est instruite à partir du cas du cabinet X. En nous appuyant sur une mise en perspective historique et les travaux de recherche intervention, un diagnostic est porté et une voie de rationalisation est conçue : elle nécessite la gestion coordonnée des parcours des consultants, des savoirs et de la stratégie. Elle constitue un cadre de gestion et des éléments de mise en œuvre sont également décrits dans cette partie. Dans une troisième partie, une montée en généralité permet de décrire l'évolution du cabinet X comme la rationalisation couplée de l'organisation des " opérations ", ce qui est appelé un " régime d'activité " et de la gouvernance de l'ESP, ce qui est appelé un " régime de collégialité ". Cette partie s'attarde également sur la gestion des entreprises démocratiques et explore la portée heuristique des cadres théoriques développés à partir du cas de recherche intervention.
506

La légitimité du contrôleur de gestion dans le secteur public : le cas d'une organisation publique professionnelle, le CEA / The legitimacy of accountants in the public sector : Case study in a public organization, the French Atomic Energy Commission

Dondeyne, Christophe 19 December 2014 (has links)
Depuis plus de dix ans, l'émergence des pratiques de contrôle de gestion en environnement public ont donné lieu à de nombreuses contributions dont certaines abordent le rôle des contrôleurs dans cette dynamique de changement.L'objectif de ce travail est de comprendre les déterminants de la légitimité des contrôleurs de gestion dans cet environnement et de déterminer comment les individus qui incarnent cette fonction ont pu « survivre » jusqu'à présent dans des organisations d'ordinaires hostiles au contrôle. Nous nous appuyons pour cela sur une étude de cas que nous avons mené auprès du Commissariat à l'Energie Atomique et aux Energies Alternatives. Quatre profils-types de contrôleurs y sont étudiés : le jeune premier, le nouveau converti, le caméléon et le conseiller du roi.Ce travail de recherche contribue donc à enrichir la connaissance de la fonction de contrôleur en liant notamment les différentes composantes de l'activité des contrôleurs autour de la recherche quotidienne de légitimité. Il permet également d'approfondir le rôle du contrôleur et de resituer l'individu dans le processus d'institutionnalisation du contrôle et dans la mise en œuvre du nouveau management public. / For more than ten years, the development of management control practices inpublic sector gave rise to many researches which some, focus on role that accountants play.The aim of this paper is to understand the determinants of management accountants' legitimacy in professional bureaucracies and to define how individuals, who embody this function, had survived in this unfriendly environment. From a case study at the French Atomic Energy Commission, we highlight four profiles of management accountants: the young novice, the new convert, the chameleon and the king's advisor.The results show that the legitimacy of the controllers should not be studied through his generic definition. Instead, it must be considered as a polymorphic judgment based on manifold determinants. It also allows to replace the individual at the center of the study field of the new managerial practices in public organizations.
507

Les mécanismes du changement institutionnel - Le cas de l'Investissement Socialement Responsable

Arjaliès, Diane-Laure 28 June 2010 (has links) (PDF)
Cette thèse cherche à mieux comprendre quels sont - au niveau des pratiques des acteurs - les mécanismes sous-jacents à un changement institutionnel en cours dans le secteur français de la gestion d'actifs, connu sous le nom d'" ISR Mainstreaming ". Ce phénomène, apparu dans les années 2000, fait référence à la pénétration progressive et massive de critères d'Investissement Socialement Responsable (ISR) dans les fonds d'investissement conventionnels (également appelés fonds " mainstream " ou " courant principal "). En particulier, la thèse cherche à identifier les raisons qui peuvent expliquer l'émergence d'un tel changement au niveau du secteur et à analyser l'impact de ce dernier sur les pratiques des gestionnaires d'actifs. Pour ce faire, la thèse s'appuie sur une étude de cas longitudinale de trois ans (2006-2009) d'une société de gestion d'actifs française, conduite par l'auteur en tant qu'analyste ISR. D'inspiration pragmatiste, la thèse mobilise une méthode d'enquête coopérative combinant observation participante, entretiens semi-dirigés et analyse de sources documentaires. La thèse se compose de trois articles qui analysent 1) les origines du mouvement de l'ISR, 2) la transformation des pratiques des sociétés de gestion d'actifs en réponse au phénomène d'ISR Mainstreaming et 3) les différences constatées entre gestion actions et gestion taux lors de la transformation de ces pratiques.
508

L'information de gestion, critère de qualité de la communication avec l'actionnaire

Cavelius, Florence 04 April 2007 (has links) (PDF)
La diffusion d'une information de gestion (IG) de qualité améliore-t-elle la relation avec l'actionnaire ? Définies par les autorités de régulation comptable, les qualités attendues sont plus à même d'être atteintes par l'IG dans son champ large. Par ailleurs, le cadre théorique de la gouvernance fournit les déterminants de la diffusion d'informations et la mesure de son impact. Une étude qualitative est menée afin d'élaborer une méthode de mesure de la qualité. A partir d'une liste d'items appréhendant la qualité, trois indices sont élaborés dont la validité est ensuite testée sur un échantillon de 55 entreprises françaises cotées. Enfin, des interactions entre qualité de l'IG, diffusion et utilité pour l'actionnaire sont révélées, puis confirmées sur ce même échantillon de 55 entreprises par des tests boursiers. Un impact positif de la diffusion d'une IG de qualité apparaît, tandis que la volatilité montre l'incertitude des investisseurs lors d'une diffusion de moindre qualité.
509

Adaptation des processus collaboratifs par coordination des changements et migration des instances

Lévesque, Enrico 08 1900 (has links) (PDF)
Le changement en entreprise a toujours été une réalité. De ce fait, les processus d'affaires subissent des altérations régulièrement. La flexibilité des systèmes de gestion des processus est donc cruciale. Puisque les processus d'affaires s'exécutent habituellement sur une longue période, la capacité des systèmes d'effectuer ces changements aux processus lorsqu'ils sont en cours d'exécution est quasi indispensable. Grâce aux architectures fondées sur les services, plusieurs organisations indépendantes peuvent contribuer à la réalisation d'une chorégraphie de processus. La complexité de gestion du changement augmente alors en fonction du nombre de participants. Des changements dans de telles chorégraphies doivent être coordonnés au niveau des contrats, des schémas des processus et des instances actives en collaboration. Notre approche de gestion du changement tient compte de tous ces aspects. Nous proposons un protocole pour coordonner le changement dans des chorégraphies de processus, le Change Protocol for Collaboration (CPC). Il assure que les changements soient traités par tous les participants. Nous proposons en plus une méthode d'adaptation dynamique des processus collaboratifs par migration des instances, et ce, de manière semi-automatisée. Aucune solution d'adaptation dynamique n'avait encore été proposée tenant compte de la collaboration d'instances actives. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : architecture fondée sur les services, processus d'affaires, processus collaboratifs, chorégraphie, évolution des processus, coordination du changement, changement dynamique, migration des instances.
510

Performances des fonctions et architectures de supervision de réseaux et de services

Lahmadi, Abdelkader 11 December 2007 (has links) (PDF)
La performance et l'efficacité de la gestion sont devenues une préoccupation au sein de la communauté de gestion de réseaux et de services depuis maintenant. Cette préoccupation est due ssentiellement aux dimensions grandissantes de réseaux et de services, à l'intégration de plan de gestion dans le plan fonctionnel de ses réseaux et ses services et la précision qu'elle doit offrir la gestion afin d'accomplir ses tâches convenablement avec des délais raisonnables. Les études existantes qui ont tentées de quantifier la performance de la gestion présentent plusieurs limites au niveau des métriques et des méthodes employées. En effet, les principales lacunes de ces études sont l'absence de métriques standards et les caractères non comparables, non reproductibles et non représentatives de leurs méthodologies de mesure.<br /><br />Etant donné ce cadre, nous avons travaillé sur la définition d'un ensemble de métriques primaires et secondaires pour mesurer la performance d'une approche de gestion. Les métriques primaires sont regroupées en trois familles : rapidité, coût et qualité. Les métriques secondaires proposées reposent sur ces dernières et permettent de quantifier l'efficacité, le passage à l'échelle et l'incidence de la gestion. Nous avons élaboré une méthodologie pour mesurer ces métriques primaires. Afin de valider cette proposition, nous avons conçu et implanté un banc de mesure dédié à l'évaluation de performances de l'approche de gestion JMX.<br /><br /><br />La seconde partie de notre travail a porté sur l'élaboration de fines campagnes de mesures de performances de JMX. Les résultats de ces mesures, nous ont permis de caractériser le passage à l'échelle, l'incidence de la gestion sur la performance d'un système géré et les délais de l'approche JMX sous différents scénarios. Nous avons trouvé que les délais que subissent les opérations JMX suivent approximativement une distribution statistique de Weibull. Grâce à ce rapprochement, nous avons pu identifier l'effet des délais sur le comportement d'un algorithme de supervision, notamment la distorsion temporelle de la vue observée par le gestionnaire par rapport à la vue réelle du système géré.

Page generated in 0.0966 seconds