• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2915
  • 686
  • 348
  • 55
  • 50
  • 49
  • 10
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 4410
  • 1909
  • 982
  • 645
  • 483
  • 397
  • 371
  • 362
  • 355
  • 352
  • 307
  • 306
  • 294
  • 292
  • 276
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Cadre de pilotage collaboratif entre manufacturier, client et fournisseur /

Abid, Chafik. January 2005 (has links)
Thèse (Ph.D.)--Université Laval, 2004. / Bibliogr.: f. 190-197. Publié aussi en version électronique.
182

Gérer le stress de l'évaluation dans un groupe-classe de niveau secondaire /

Deshaies, Michèle. January 1997 (has links)
Thèse (M.A.)--Université Laval, 1997. / Bibliogr.: f. [104]-107. Publié aussi en version électronique.
183

Coordination models for crisis resolution : discovery, analysis and assessment / Modèle de coordination pour la résolution des crises : découverte, analyse et évaluation

Le, Nguyen Tuan Thanh 15 December 2016 (has links)
Cette thèse concerne la coordination en univers des multi-agents et en particulier dans des contextes de crise. Nous assistons actuellement à un accroissement du nombre de crises, non seulement des catastrophes naturelles (ouragan Katrina, tremblement de terre d'Haïti, ...) mais aussi humanitaires (crise des réfugiés syriens en Europe, printemps Arabe, émeutes de Baltimore, ...). Dans toutes ces crises, les différents acteurs œuvrant pour leurs résolutions doivent agir rapidement et simultanément, afin de contrôler et réduire les impacts de la crise sur le monde réel. Pour atteindre cet objectif commun aussi rapidement et efficacement que possible, ces acteurs (police, forces militaires, organisations médicales) doivent mettre en commun leurs ressources et compétences respectives, collaborer et agir de manière coordonnée, le plus souvent en suivant un plan qui indique la répartition du travail et les échanges entre eux. Par coordination, nous entendons tout le travail nécessaire pour élaborer ou adapter le plan de résolution de crises et mettre en commun les compétences et les ressources de tous les intervenants afin d'atteindre l'objectif commun (la résolution de crise) de manière efficace. Les plans de résolution de crise sont la plupart du temps disponibles dans un format textuel définissant les acteurs impliqués, leurs rôles et des recommandations pour leurs coordinations dans les différentes étapes du cycle de vie de crise (anticipation, préparation, résolution de la crise, retour d'expérience). Bien que les plans dans un format textuel soient faciles à manipuler par les intervenants pris individuellement, il n'existe pas de moyens directs pour les analyser, simuler, adapter, améliorer et ils peuvent avoir diverses interprétations, ce qui les rend difficile à gérer en temps réel et dans une situation où les acteurs sont géographiquement distribués. Au regard de ces observations, il devient indispensable de faire une modélisation de ces plans textuels afin d'en avoir une représentation précise, éviter toute ambiguïté, faciliter la coordination entre les intervenants et enfin faciliter la gestion ainsi que la résolution de crises. L'objectif de cette thèse est de contribuer à l'ingénierie de la coordination dans les domaines de crise en fournissant une approche globale qui prend en compte sans les confondre et en les articulant deux aspects essentiels de la gestion de crises : l'aspect organisationnel et l'aspect tâche. Dans cette perspective, notre approche combine deux paradigmes: BPM (Business Process Management) et les systèmes multi-agents, et fournit un algorithme de traduction entre leurs concepts. BPM fournit une vue globale de la coordination du point de vue de la tâche à réaliser et facilite la validation, la simulation et l'intelligibilité des plans de résolution de la crise au moment de leur conception tout en permettant le suivi de leur exécution. Le paradigme multi-agent fournit, quant à lui, des abstractions sociales (des interactions de haut niveau et des structures organisationnelles : rôles, relations et interactions entre acteurs) pour modéliser, analyser et simuler une vue organisationnelle de la coordination en représentant la structure et le comportement du système développé au niveau macro, indépendamment de la structure interne des agents à un niveau micro. La contribution de cette thèse est un cadre conceptuel pour l'ingénierie de la coordination. / This thesis is about coordination in multi-agent universes and particularly in crisis contexts. Recently, we have witnessed an increasing number of crises, not only natural disasters (hurricane Katrina, Haiti earthquake, ...) but also man-made ones (Syrian refugees crisis in Europe, Arabic spring, rioting in Baltimore, ...). In such crisis, the different actors involved in the resolution have to act rapidly and simultaneously in order to ease an efficient control and reduce its impacts on the real world. To achieve this common goal as quickly and efficiently as possible, these actors (police, military forces, medical organizations) must join their respective resources and skills to collaborate and act in a coordinated way, most often by following a plan that specifies the expected flow of work between them. By coordination, we mean all the work needed for putting resolution plans and all stakeholders' skills and resources together in order to reach the common goal (crisis resolution) in an efficient way. Crisis resolution plans are most of the time available in a textual format defining the actors, their roles and coordination recommendations in the different steps of crisis life-cycle (mitigation, preparedness, response and recovery). While plans in a printed document format are easy to manipulate by stakeholders when taken individually, they do not provide direct means to be analysed, simulated, adapted or improved and may have various different interpretations. Therefore they are difficult to manage in real time and in a distributed setting. Given these observations, it becomes useful to model these textual plans to have an accurate representation of them, to reduce ambiguity and to support coordination between stakeholders and ease an efficient control and crisis resolution. The goal of this PhD thesis is to contribute to coordination engineering in crisis domains by providing a comprehensive approach that considers both organizational and task aspects in a coherent conceptual framework. In this perspective, our approach combines Business Process and Multi-Agent paradigms and provides a mapping algorithm between their concepts. BPM (Business Process Modelling) provides an aggregate view of the coordination through the task aspect and so doing eases the validation, the simulation, the intelligibility of crisis resolution plans at design time and its monitoring at run time. The Multi-Agent paradigm provides social abstractions (high-level interactions and organization structures) to model, analyse and simulate an organizational view of the coordination by representing the structure and the behaviour of the system being developed at a macro level, independently of the internal structure of agents (micro level). The contribution of this thesis is a coordination framework, which consists of three related components: i) A design and development approach (design/discovery, analysis, simulation) that provides means (recommendations, formalisms, life-cycle, algorithms) to produce (agent and process-based) coordination models from a textual plan and/or event based log files, ii) A mapping algorithm deriving BPMN process schemas onto multi-agent structures, iii) Coordination evaluation metrics. We extend the works of Grossi and define formal metrics that allow the evaluation of the quality (efficiency, robustness and flexibility) of multi-agent system organizations. We have applied this framework to the Ho Chi Minh City Tsunami resolution plan.
184

Les consultants en organisation: pilotage et dynamique de l'intervention

Verstraeten, Michel January 2005 (has links)
Doctorat en Sciences politiques et sociales / info:eu-repo/semantics/nonPublished
185

Comment l'éthique influence-t-elle les prises de décision en gestion de projet et le choix d'utilisation des pratiques appropriées?

Lacourse, Jimmy January 2020 (has links) (PDF)
No description available.
186

Performance des ressources humaines en contexte de gestion des projets

Tamboura, Carole January 2019 (has links) (PDF)
No description available.
187

Rôle de la communication dans l'accroissement de la performance d'un projet

Aziz, Rime January 2020 (has links) (PDF)
No description available.
188

Stratégie de gestion de stocks dans un réseau collaboratif

Naoui, Rihabislam 24 April 2018 (has links)
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail. / The content of this paper deals with the inventory management problem in a network of many consumer products storage locations. Each location autonomously manages its stock to satisfy a deterministic demand over a given horizon. A maximum quantity of stock Si is held at each site i. When the reorder point si is reached, an order Qi is placed to the distribution center which supplies all sites. Qi is such that Qi = Si - si. The amount Qi is delivered with a known lead-time Li. If, at a given time, the Di demand at location i exceeds the on-hand inventory, the location i uses one or more other network locations for a lateral transshipment of a quantity Xji (j = 1, 2... n) from location j to location i. This lateral transhipment is made according to a number of rules that take into account transshipment cost, holding cost, replenishment cost and shortage cost. This thesis examines six key contributions published in the literature to assess the contributions of a collaborative model to performance, in terms of cost and service level, at each network location. This investigation is limited to a two-level network configuration: a central warehouse and n (n > 2) storage locations. The case of repairable spare parts, characterized by a random demand, is examined in three chapters of this memory. Another application of these strategies to collaboration between n hospitals (n> 2) is also examined in this work.
189

Développement de méthodes d'intégration de données biologiques à l'aide d'Elasticsearch

Ongaro-Carcy, Régis 19 July 2022 (has links)
En biologie, les données apparaissent à toutes les étapes des projets, de la préparation des études à la publication des résultats. Toutefois, de nombreux aspects limitent leur utilisation. Le volume, la vitesse de production ainsi que la variété des données produites ont fait entrer la biologie dans une ère dominée par le phénomène des données massives. Depuis 1980 et afin d'organiser les données générées, la communauté scientifique a produit de nombreux dépôts de données. Ces dépôts peuvent contenir des données de divers éléments biologiques par exemple les gènes, les transcrits, les protéines et les métabolites, mais aussi d'autres concepts comme les toxines, le vocabulaire biologique et les publications scientifiques. Stocker l'ensemble de ces données nécessite des infrastructures matérielles et logicielles robustes et pérennes. À ce jour, de par la diversité biologique et les architectures informatiques présentes, il n'existe encore aucun dépôt centralisé contenant toutes les bases de données publiques en biologie. Les nombreux dépôts existants sont dispersés et généralement autogérés par des équipes de recherche les ayant publiées. Avec l'évolution rapide des technologies de l'information, les interfaces de partage de données ont, elles aussi, évolué, passant de protocoles de transfert de fichiers à des interfaces de requêtes de données. En conséquence, l'accès à l'ensemble des données dispersées sur les nombreux dépôts est disparate. Cette diversité d'accès nécessite l'appui d'outils d'automatisation pour la récupération de données. Lorsque plusieurs sources de données sont requises dans une étude, le cheminement des données suit différentes étapes. La première est l'intégration de données, notamment en combinant de multiples sources de données sous une interface d'accès unifiée. Viennent ensuite des exploitations diverses comme l'exploration au travers de scripts ou de visualisations, les transformations et les analyses. La littérature a montré de nombreuses initiatives de systèmes informatiques de partage et d'uniformisation de données. Toutefois, la complexité induite par ces multiples systèmes continue de contraindre la diffusion des données biologiques. En effet, la production toujours plus forte de données, leur gestion et les multiples aspects techniques font obstacle aux chercheurs qui veulent exploiter ces données et les mettre à disposition. L'hypothèse testée pour cette thèse est que l'exploitation large des données pouvait être actualisée avec des outils et méthodes récents, notamment un outil nommé Elasticsearch. Cet outil devait permettre de combler les besoins déjà identifiés dans la littérature, mais également devait permettre d'ajouter des considérations plus récentes comme le partage facilité des données. La construction d'une architecture basée sur cet outil de gestion de données permet de les partager selon des standards d'interopérabilité. La diffusion des données selon ces standards peut être autant appliquée à des opérations de fouille de données biologiques que pour de la transformation et de l'analyse de données. Les résultats présentés dans le cadre de ma thèse se basent sur des outils pouvant être utilisés par l'ensemble des chercheurs, en biologie mais aussi dans d'autres domaines. Il restera cependant à les appliquer et à les tester dans les divers autres domaines afin d'en identifier précisément les limites. / In biology, data appear at all stages of projects, from study preparation to publication of results. However, many aspects limit their use. The volume, the speed of production and the variety of data produced have brought biology into an era dominated by the phenomenon of "Big Data" (or massive data). Since 1980 and in order to organize the generated data, the scientific community has produced numerous data repositories. These repositories can contain data of various biological elements such as genes, transcripts, proteins and metabolites, but also other concepts such as toxins, biological vocabulary and scientific publications. Storing all of this data requires robust and durable hardware and software infrastructures. To date, due to the diversity of biology and computer architectures present, there is no centralized repository containing all the public databases in biology. Many existing repositories are scattered and generally self-managed by research teams that have published them. With the rapid evolution of information technology, data sharing interfaces have also evolved from file transfer protocols to data query interfaces. As a result, access to data set dispersed across the many repositories is disparate. This diversity of access requires the support of automation tools for data retrieval. When multiple data sources are required in a study, the data flow follows several steps, first of which is data integration, combining multiple data sources under a unified access interface. It is followed by various exploitations such as exploration through scripts or visualizations, transformations and analyses. The literature has shown numerous initiatives of computerized systems for sharing and standardizing data. However, the complexity induced by these multiple systems continues to constrain the dissemination of biological data. Indeed, the ever-increasing production of data, its management and multiple technical aspects hinder researchers who want to exploit these data and make them available. The hypothesis tested for this thesis is that the wide exploitation of data can be updated with recent tools and methods, in particular a tool named Elasticsearch. This tool should fill the needs already identified in the literature, but also should allow adding more recent considerations, such as easy data sharing. The construction of an architecture based on this data management tool allows sharing data according to interoperability standards. Data dissemination according to these standards can be applied to biological data mining operations as well as to data transformation and analysis. The results presented in my thesis are based on tools that can be used by all researchers, in biology but also in other fields. However, applying and testing them in various other fields remains to be studied in order to identify more precisely their limits.
190

Optimizing the forest supply chain : data uncertainty through classification, planning and coordination tools

Simard, Vanessa 08 September 2023 (has links)
Titre de l'écran-titre (visionné le 5 septembre 2023) / Les entreprises forestières déploient beaucoup d'effort pour optimiser le processus de planification de leurs activités afin de devenir plus efficaces. Cependant, pour utiliser les avancées technologiques à leur plein potentiel, il est nécessaire d'avoir une planification de la production adaptée aux besoins du marché et qui tienne compte de toutes les contraintes. Au Québec, environ 92% des forêts sont publiques, c'est-à-dire qu'elles sont gérées par l'État. Le gouvernement répartit les peuplements forestiers entre les différentes entreprises exploitantes et leur fourni des informations sur la ressource attribuée. Les entreprises ont ensuite la responsabilité de planifier leurs activités de récolte. L'exercice consiste principalement à décider du moment de la récolte et à associer les peuplements à la bonne usine de transformation. Or, les données utilisées pour ce type de décision ne sont pas assez précises, ce qui constitue une source constante d'incertitude lorsqu'on tente de définir ce qui est disponible dans la forêt. Le manque de précision n'affecte pas seulement la planification de la récolte, mais aussi les activités de planification de chaque partie de la chaîne d'approvisionnement. Pour réduire l'impact sur l'efficacité globale, les entreprises auront tendance à conserver des niveaux élevés de stocks, malgré le coût que cela peut occasionner. Il existe également une absence de coordination entre l'opération de récolte et la production de produit du bois, en particulier le bois d'œuvre. Même s'il est techniquement possible d'ajuster la récolte du bois brut afin de répondre à la planification de la production de la scierie, cela peut être très coûteux pour l'équipe d'exploitation. De plus, malgré le fait que l'investissement dans une technologie d'acquisition de données ou un mécanisme de coordination puisse être considérable, le bénéfice d'un point de vue global a été prouvé. L'objectif de ce projet de thèse est de développer des outils de planification et de coordination qui puissent aider à prendre de meilleures décisions de transport et de production en situation d'incertitude. Pour atteindre un tel objectif, la première étape est de développer une méthode pour quantifier et classifier la qualité des données. Le résultat sera le point de départ pour modéliser et intégrer l'incertitude dans les activités de planification afin d'évaluer comment son inclusion peut affecter le système par rapport à celui où elle n'est pas prise en compte. Comme le projet de thèse est un système décentralisé, des mécanismes de coordination seront testés pour éviter que l'amélioration au début de la chaîne ne se dégrade entre les unités de la chaîne. Enfin, un cadre décisionnel combinera les résultats et servira d'aide à la prise de décision en présence de différents niveaux d'incertitude. La recherche se concentre sur un sujet relativement peu étudié dans la littérature, qui affecte toutes les entreprises forestières, l'incertitude des données décrivant la ressource. Il existe plusieurs causes de variation dans la chaîne d'approvisionnement forestière, mais l'incertitude générée par un manque de qualité des données peut être quantifiée et incluse dans le processus de planification. Peu de travaux se sont intéressé à telle approche. D'un point de vue pratique, le projet permettra de tester une stratégie de planification et de coordination qui donnera aux entreprises des lignes directrices pour mieux se préparer à l'incertitude et ainsi améliorer la performance de leur système. / Forest companies put a lot of effort to optimize the planning process of their activities to become more efficient. However, to use technological advancement to its full potential, it is necessary to have a production plan to prescribe the best strategy to harvest, transport, store, produce and distribute wood products while adapting to the market's needs. In Quebec, around 92% of the forests are public, which means they are managed by the state. The government allocates the forest stands between the different exploiting companies and gives them information about the assigned resource. The companies then have the responsibility to plan their harvesting activities. The exercise mainly consists in deciding when to harvest and associating the stands with the right sawmill. Still, the data used for this kind of decision are rarely precise, which induces a constant source of uncertainty when trying to define what is available in the forest. This will affect the harvesting and planning of every supply chain activity. To reduce the impact on overall efficiency, companies will tend to keep high levels of inventory despite the costs. There also exists an absence of coordination between the harvesting operation and the production of wood products, such as softwood lumber. Even if it is technically possible to harvest rough wood (in the form of trees) to conform to the sawmill production planning, it can be costly for the exploitation team to make the needed adjustments. The benefits of investing in data acquisition technologies or coordination mechanisms are not necessarily obvious to a company, yet, from a global point of view it has been demonstrated that the extra cost can be recovered with the right approach. The objective of the thesis is to develop planning and coordination tools that can help make better transport and production decisions under uncertainty. To achieve this goal, the first step is to develop a method to quantify and classify data quality. The result is then the starting point to model and integrates uncertainty into planning activities. This allows seeing how including it can affect the system compared to when it is not considered. Since the subject of the thesis is a decentralized system, coordination mechanisms are tested to prevent the improvement at the beginning of the chain from degrading between business units. Finally, a decision-making framework will combine the findings and act as support to make decisions when subject to different levels of uncertainty. The research focuses on a relatively little-studied topic in the literature, which affects all forest companies, the uncertainty of the data describing the resource. There are many causes for variation regarding the forest supply chain, but the uncertainty generated by a lack of data quality can be quantified and included in the planning process. In the practical sense, the project will allow testing planning and coordination strategies which will give companies guidelines to be better prepared for the uncertainty and thus improve their profitability.

Page generated in 0.082 seconds