• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 8
  • 8
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modelling and placement optimization of compound services in a converged infrastructure of cloud computing and internet of things / Modélisation et optimisation du placement de services composés dans une infrastructure convergente de l’informatique en nuage et de l’internet des objets

El Rachkidi, Elie 24 October 2017 (has links)
La convergence de l’Internet des Objets IdO (Internet of Things) et de l’Informatique en Nuage (Cloud Computing) est une approche prometteuse. D’une part, l’Informatique en Nuage fournit des ressources de calcul, de réseau, et de stockage théoriquement illimitées, et d’autre part, l’IdO permet l’interaction des services en nuage avec des objets du monde réel. Une convergence efficace de ces deux technologies aura un impact certainement important sur les innovations dans les domaines des services IT par l’introduction de nouveaux modèles de services d’IdO à la demande. Dans un tel contexte, les objets connectés sont virtualisés et offerts comme étant des services en nuage accessibles sur Internet depuis n’importe où et à n’importe quel moment. Ces services sont connus sous le nom d’Objets Virtuels (OVs). Ils cachent l’hétérogénéité de l’IdO et lient les objets connectés aux services en nuage traditionnels (i.e. services de stockage) pour fournir des applications IdO. Dans cette thèse, nous considérons d’abord une intégration partielle de l’IdO et de l’Informatique en Nuage. Cette intégration fournit l’IdO au sein d’un seul niveau de service de l’Informatique en Nuage. Dans ce cas, les ressources de l’IdO et de l’Informatique en Nuage sont approvisionnées séparément. Nous nous concentrons dans ce travail sur l’orchestration des OVs dans une infrastructure en Nuage. Nous définissons un algorithme d’approvisionnement basé sur une stratégie de partage où chaque objet connecté est associé à un seul OV et peut être consommé par plusieurs applications. Nous proposons deux programmes linéaires pour effectuer l’approvisionnement des OVs. Le premier en cas où il n’y a pas des OVs précédemment déployés dans l’infrastructure, tandis que l’autre prend en compte le cas où il y a des OVs déjà déployés. Notre approche minimise les coûts opérationnels des OVs et la latence de communication par rapport aux approches qui considèrent une stratégie de non-partage. La deuxième partie de cette thèse considère une intégration complète de l’IdO et de l’Informatique en Nuage. Nous appelons cette intégration le Nuage des Objects (NdO). Dans ce contexte, un client sera capable de demander un approvisionnement, un déploiement, et une mise à l’échelle automatique d’une application IdO de bout en bout à la volée avec un minimum d’efforts de gestion. En particulier, nous abordons l’aspect de l’approvisionnement. Nous définissons un modèle orienté ressources capable de décrire une demande d’une application IdO et une infrastructure NdO sur différents niveaux de service. Nous basons notre modèle sur les spécifications OCCI définies par l’OGF. En outre, nous définissons un algorithme d’approvisionnement en une étape coordonnée pour orchestrer une application IdO dans une infrastructure NdO. L’algorithme considère les ressources de l’IdO et de l’Informatique en Nuage simultanément. Les simulations montrent qu’un processus d’approvisionnement en une étape coordonnée est 10%−20% plus efficace que deux processus d’orchestration des ressources de l’IdO et de l’Informatique en Nuage séparés. / The convergence of the Internet of Things (IoT) and Cloud Computing technologies is a promising approach. On the one hand, Cloud Computing provides virtually unlimited computing, networking, and storage resources for constrained IoT devices. On the other hand, the IoT enables the interaction of cloud services with real world things. Such integration stimulates innovation in both areas and provides novel service delivery models such as the Sensingas a Service in different application domains (i.e. healthcare, transportation, smart-city, smartbuilding).In such convergence, things are abstracted and offered as cloud services accessible over the Internet from any place and at any time. Such abstractions are known as Virtual Objects (VOs) and connect things to traditional cloud services (e.g. data analytics, storageservices) to deliver IoT applications. In this thesis, we consider first a partial integration of the IoT and Cloud Computing. Such integration focuses on delivering the IoT within a single service level of Cloud Computing,namely: the application, the platform, or the infrastructure level. In this context, IoT and CloudComputing resources are provisioned separately. We focus in this work on the orchestration of VOs in a cloud infrastructure. For this purpose, we define a provisioning algorithm based on a sharing strategy where each connected object is associated with a single VO and can be consumed by multiple applications. We propose two linear programs to perform the provisioning of VOs. The first considers no previously deployed VOs in the infrastructure, while the other takes into consideration pre-deployed VOs. Our approach minimizes VOs operational cost and communication latency in both cases compared to those with a non-sharing strategy. The second part of this thesis considers a full integration of the IoT and Cloud Computing. We refer to such integration as the Cloud of Things (CoT). In this context, a customer should be able to request end-to-end IoT application provisioning, deployment, auto-scaling, and release on the fly with minimal management efforts. In this thesis, we address the provisioning aspect. We define a resource-oriented model able to describe an IoT application request and a CoT infrastructure on different service levels. We base our model on the OCCI specifications defined by the OGF. Furthermore, we define a single stage provisioning algorithm to orchestrate a described IoT application into a CoT infrastructure. The algorithm considers cloud and IoT resources simultaneously. Simulations show that a one-stage provisioning process is 10%−20%more efficient than two separate orchestration processes for cloud and IoT resources.
2

Contribution à l'analyse de performances des Systèmes à Evénements Discrets non linéaires dans l'algèbre (min,+)

Benfekir, Abderrahim 19 December 2013 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la théorie des systèmes linéaires dans les dioïdes. Cette théorie concerne la sous-classe des systèmes à événements discrets modélisables par les Graphes d'Événements Temporisés (GET). La dynamique de ces graphes peut être représentée par des équations récurrentes linéaires sur des structures algébriques particulières telles que l'algèbre (max,+) ou l'algèbre (min,+).Ce mémoire est consacré à l'analyse de performances des systèmes dynamiques qui peuvent être modélisés graphiquement par des Graphes d'Événements Temporisés Généralisés (GETG). Ces derniers, contrairement au GET, n'admettent pas une représentation linéaire dans l'algèbre (min,+). Pour pallier à ce problème de non linéarité, nous avons utilisé une approche de modélisation définie sur un dioïde d'opérateurs muni de deux lois internes : loi additive correspondant à l'opération (min), et loi multiplicative équivalente à la loi de composition usuelle. Le modèle d'état obtenu, est utilisé pour évaluer les performances des GETG. Pour cela, nous avons proposé une nouvelle méthode qui a pour but de linéariser le modèle mathématique régissant l'évolution dynamique du modèle graphique, dans le but d'obtenir un modèle (min,+) linéaire. La deuxième partie de cette thèse est consacrée au problème qui consiste à déterminer les ressources à utiliser dans une ligne de production, en vue d'atteindre des performances souhaitée. Ceci est équivalent à déterminer le marquage initial de la partie commande du GETG.
3

Gestion de contexte pour l'optimisation de l'accès et l'adaptation des services sur des environnements hétérogènes

Loukil, Mehdi 20 December 2012 (has links) (PDF)
Dans le domaine des TIC, les services de demain seront certainement basés sur des systèmes ubiquitaires, omniprésents et pervasifs. Ces systèmes devront prendre en considération différents paramètres provenant de l'environnement de l'utilisateur, c'est à dire son contexte. Le contexte de l'utilisateur peut être composé d'informations statiques ou dynamiques, objectives ou subjectives, quantitatives ou qualitatives. Il peut inclure des données telles que la localisation géographique, les caractéristiques du terminal utilisé, la température ambiante, l'humeur de l'utilisateur. Afin d'améliorer la QoS et la QoE, les services et les systèmes doivent être adaptés aux changements du contexte des utilisateurs. Le contexte doit donc être collecté et interprété et les règles d'adaptation du système doivent être définies. Sur les systèmes étendus, riches, dynamiques et hétérogènes, tels que ceux considéré dans le cadre de cette thèse, ces opérations doivent être automatisées. Vu la quantité et la complexité des données contextuelles à considérer, l'utilisation de la sémantique dans la gestion de contexte peut faciliter cette automatisation et ouvrir la porte au raisonnement et à l'adaptation automatiques. Aujourd'hui, peu de solutions viables existent pour cette problématique. Nous proposons alors d'utiliser et d'adapter des mécanismes et technologies provenant du web sémantique pour décrire et manipuler les informations de contexte. Dans un premier temps, nous avons proposé une méthodologie de conception qui nous permit de proposer " Ubiquity-Ont " : une ontologie générique au domaine des TIC, flexible et extensible. Les données de contexte ont alors été décrites sous forme de concepts et d'instances, reliés par des relations sémantiques. Nous avons ensuite proposé une architecture overlay, composée de deux niveaux de vitalisation et permettant d'intégrer un gestionnaire de contexte, basé sur la sémantique, sur des environnements réseaux et services. Cette solution overlay permet de (a) masquer l'hétérogénéité des composants du système et (b) d'augmenter virtuellement les entités du système existant par les capacités nécessaires à la manipulation et au raisonnement sur les données sémantiques du contexte. Nos propositions ont étés implémentées et testées sur une plateforme réelle et appliquées à deux cas d'études : Gestion de la mobilité sur des environnements de réseaux d'accès hétérogènes et Optimisation de la consommation d'énergie dans les terminaux mobiles
4

Contribution à l'analyse de performances des Systèmes à Evénements Discrets non linéaires dans l'algèbre (min,+) / Contribution to the performance analysis of nonlinear Discrete Events Systems in (min, +) algebra

Benfekir, Abderrahim 19 December 2013 (has links)
Cette thèse s'inscrit dans le cadre de la théorie des systèmes linéaires dans les dioïdes. Cette théorie concerne la sous-classe des systèmes à événements discrets modélisables par les Graphes d'Événements Temporisés (GET). La dynamique de ces graphes peut être représentée par des équations récurrentes linéaires sur des structures algébriques particulières telles que l'algèbre (max,+) ou l'algèbre (min,+).Ce mémoire est consacré à l'analyse de performances des systèmes dynamiques qui peuvent être modélisés graphiquement par des Graphes d'Événements Temporisés Généralisés (GETG). Ces derniers, contrairement au GET, n'admettent pas une représentation linéaire dans l'algèbre (min,+). Pour pallier à ce problème de non linéarité, nous avons utilisé une approche de modélisation définie sur un dioïde d'opérateurs muni de deux lois internes : loi additive correspondant à l'opération (min), et loi multiplicative équivalente à la loi de composition usuelle. Le modèle d'état obtenu, est utilisé pour évaluer les performances des GETG. Pour cela, nous avons proposé une nouvelle méthode qui a pour but de linéariser le modèle mathématique régissant l'évolution dynamique du modèle graphique, dans le but d'obtenir un modèle (min,+) linéaire. La deuxième partie de cette thèse est consacrée au problème qui consiste à déterminer les ressources à utiliser dans une ligne de production, en vue d'atteindre des performances souhaitée. Ceci est équivalent à déterminer le marquage initial de la partie commande du GETG. / This thesis is part of the theory of linear systems over dioids. This theory concerns the subclass of discrete event dynamic systems modeled by Timed Event Graphs (TEG). The dynamics of these graphs can be represented by linear recurrence equations over specific algebraic structures such as (max,+) algebra or (min,+) algebra.This report is devoted to the performance analysis of dynamic systems which can be represented graphically by Generalized Timed Event Graphs(GTEG). These type of graphs, unlike TEG, do not admit a linear representation in (min,+) algebra. To mitigate the problem of nonlinearity, we used a modeling approach defined on a dioid operators. The obtained state model is used to evaluate the performance of GTEG. For this, we proposed a new method to linearize the mathematical model governing the dynamic evolution of the graphical model in order to obtain a linear model in (min,+) algebra. The second part of this work is devoted to the problem of determining the resources to use in a production line, in order to achieve desired performance. These is equivalent to determining the initial marking of the control part of the GTEG.
5

Gestion de contexte pour l'optimisation de l'accès et l'adaptation des services sur des environnements hétérogènes / Context management for network access optimisation and services adaptation in heterogeneous environments

Loukil, Mehdi 20 December 2012 (has links)
Dans le domaine des TIC, les services de demain seront certainement basés sur des systèmes ubiquitaires, omniprésents et pervasifs. Ces systèmes devront prendre en considération différents paramètres provenant de l’environnement de l’utilisateur, c’est à dire son contexte. Le contexte de l’utilisateur peut être composé d’informations statiques ou dynamiques, objectives ou subjectives, quantitatives ou qualitatives. Il peut inclure des données telles que la localisation géographique, les caractéristiques du terminal utilisé, la température ambiante, l’humeur de l’utilisateur. Afin d’améliorer la QoS et la QoE, les services et les systèmes doivent être adaptés aux changements du contexte des utilisateurs. Le contexte doit donc être collecté et interprété et les règles d’adaptation du système doivent être définies. Sur les systèmes étendus, riches, dynamiques et hétérogènes, tels que ceux considéré dans le cadre de cette thèse, ces opérations doivent être automatisées. Vu la quantité et la complexité des données contextuelles à considérer, l’utilisation de la sémantique dans la gestion de contexte peut faciliter cette automatisation et ouvrir la porte au raisonnement et à l’adaptation automatiques. Aujourd’hui, peu de solutions viables existent pour cette problématique. Nous proposons alors d’utiliser et d’adapter des mécanismes et technologies provenant du web sémantique pour décrire et manipuler les informations de contexte. Dans un premier temps, nous avons proposé une méthodologie de conception qui nous permit de proposer « Ubiquity-Ont » : une ontologie générique au domaine des TIC, flexible et extensible. Les données de contexte ont alors été décrites sous forme de concepts et d’instances, reliés par des relations sémantiques. Nous avons ensuite proposé une architecture overlay, composée de deux niveaux de vitalisation et permettant d’intégrer un gestionnaire de contexte, basé sur la sémantique, sur des environnements réseaux et services. Cette solution overlay permet de (a) masquer l’hétérogénéité des composants du système et (b) d’augmenter virtuellement les entités du système existant par les capacités nécessaires à la manipulation et au raisonnement sur les données sémantiques du contexte. Nos propositions ont étés implémentées et testées sur une plateforme réelle et appliquées à deux cas d’études : Gestion de la mobilité sur des environnements de réseaux d’accès hétérogènes et Optimisation de la consommation d’énergie dans les terminaux mobiles / Future Information and Telecommunication Systems are expected to be pervasive and ubiquitous solutions, able to consider users’ context and to automatically adapt to their environments. Traditional configuration and management tools are not adapted. The richness, the heterogeneity and the complexity of the upcoming systems require automated solutions able to gather contextual information, to reason on them and to make the appropriate adaptation decisions. The representation and the sharing of contextual information is a key issue. In this thesis, we proposed and used a methodology to conceive « Ubiquity-Ont », a generic ontology dedicated to Information and Telecommunication Systems. Contextual information are the described through semantic concepts, instances and relations. We then proposed an overlay architecture, composed of two virtualization layers that can integrate a semantic context management framework over existing networking environments. This architecture is able (a) to hide any heterogeneity among the system components and (b) to augment the different entities with additional capacities for context gathering, reasoning and sharing operations. The proposed solutions were then implemented and tested in Lab for two applications. The fisrt is related to mobility management over heterogeneous Wireless Networks and the second aims to power optimization on mobile terminals. These two case studies helped in proving and enhancing the proposed solutions
6

Multi-operator greedy routing based on open routers / Routeurs ouverts avec routage glouton dans un contexte multi-opérateurs

Venmani, Daniel Philip 26 February 2014 (has links)
Les évolutions technologies mobiles majeures, tels que les réseaux mobiles 3G, HSPA+ et LTE, ont augmenté de façon significative la capacité des données véhiculées sur liaison radio. Alors que les avantages de ces évolutions sont évidents à l’usage, un fait moins connu est que ces améliorations portant principalement sur l’accès radio nécessitent aussi des avancées technologiques dans le réseau de collecte (backhaul) pour supporter cette augmentation de bande passante. Les fournisseurs d’accès Internet (FAI) et les opérateurs de réseau mobile doivent relever un réel défi pour accompagner l’usage des smartphones. Les coûts opérationnels associés aux méthodes traditionnelles de backhaul augmentent plus vite que les revenus générés par les nouveaux services de données. Ceci est particulièrement vrai lorsque le réseau backhaul doit lui-même être construit sur des liens radio. Un tel réseau de backhaul mobile nécessite (i) une gestion de qualité de service (QoS) liée au trafic avec des exigences strictes en matière de délai et de gigue, (ii) une haute disponibilité / fiabilité. Alors que la plupart des FAI et des opérateurs de réseau mobile font état des avantages de mécanismes de redondance et de résilience pour garantir une haute disponibilité, force est de constater que les réseaux actuels sont encore exposés à des indisponibilités. Bien que les causes de ces indisponibilités soient claires, les fluctuations rapides et / ou des pannes imprévues du trafic continuent d’affecter les plus grands opérateurs. Mais ces opérateurs ne pourraient-ils pas mettre en place des modèles et des mécanismes pour améliorer la survie des réseaux pour éviter de telles situations ? Les opérateurs de réseaux mobiles peuvent-ils mettre en place ensemble des solutions à faible coût qui assureraient la disponibilité et la fiabilité des réseaux ? Compte tenu de ce constat, cette thèse vise à : (i) fournir des solutions de backhaul à faible coût ; l’objectif est de construire des réseaux sans fil en ajoutant de nouvelles ressources à la demande plutôt que par sur-dimensionnements, en réponse à un trafic inattendu surgit ou à une défaillance du réseau, afin d’assurer une qualité supérieure de certains services (ii) fournir des communications sans interruption, y compris en cas de défaillance du réseau, mais sans redondance. Un léger focus porte sur l’occurrence de ce problème sur le lien appelé «dernier kilomètre» (last mile). Cette thèse conçoit une nouvelle architecture de réseaux backhaul mobiles et propose une modélisation pour améliorer la survie et la capacité de ces réseaux de manière efficace, sans reposer sur des mécanismes coûteux de redondance passive. Avec ces motivations, nous étudions le problème de partage de ressources d'un réseau de backhaul entre opérateurs concurrents, pour lesquelles un accord de niveau de service (SLA) a été conclu. Ainsi, nous présentons une étude systématique de solutions proposées portant sur une variété d’heuristiques de partage empiriques et d'optimisation des ressources. Dans ce contexte, nous poursuivons par une étude sur un mécanisme de recouvrement après panne qui assure efficacement et à faible coût la protection et la restauration de ressources, permettant aux opérateurs via une fonction basée sur la programmation par contraintes de choisir et établir de nouveaux chemins en fonction des modèles de trafic des clients finaux. Nous illustrons la capacité de survie des réseaux backhaul disposant d’un faible degré de redondance matérielle, par la gestion efficace d’équipements de réseau de backhaul répartis géographiquement et appartenant aux différents opérateurs, en s’appuyant sur des contrôleurs logiquement centralisés mais physiquement distribués, en respectant des contraintes strictes sur la disponibilité et la fiabilité du réseau / Revolutionary mobile technologies, such as high-speed packet access 3G (HSPA+) and LTE, have significantly increased mobile data rate over the radio link. While most of the world looks at this revolution as a blessing to their day-to-day life, a little-known fact is that these improvements over the radio access link results in demanding tremendous improvements in bandwidth on the backhaul network. Having said this, today’s Internet Service Providers (ISPs) and Mobile Network Operators (MNOs) are intemperately impacted as a result of this excessive smartphone usage. The operational costs (OPEX) associated with traditional backhaul methods are rising faster than the revenue generated by the new data services. Building a mobile backhaul network is very different from building a commercial data network. A mobile backhaul network requires (i) QoS-based traffic with strict requirements on delay and jitter (ii) high availability/reliability. While most ISPs and MNOs have promised advantages of redundancy and resilience to guarantee high availability, there is still the specter of failure in today’s networks. The problems of network failures in today’s networks can be quickly but clearly ascertained. The underlying observation is that ISPs and MNOs are still exposed to rapid fluctuations and/or unpredicted breakdowns in traffic; it goes without saying that even the largest operators can be affected. But what if, these operators could now put in place designs and mechanisms to improve network survivability to avoid such occurrences? What if mobile network operators can come up with low-cost backhaul solutions together with ensuring the required availability and reliability in the networks? With this problem statement in-hand, the overarching theme of this dissertation is within the following scopes: (i) to provide low-cost backhaul solutions; the motivation here being able to build networks without over-provisioning and then to bring-in new resources (link capacity/bandwidth) on occasions of unexpected traffic surges as well as on network failure conditions for particularly ensuring premium services (ii) to provide uninterrupted communications even at times of network failure conditions, but without redundancy. Here a slightly greater emphasis is laid on tackling the ‘last-mile’ link failures. The scope of this dissertation is therefore to propose, design and model novel network architectures for improving effective network survivability and network capacity, at the same time by eliminating network-wide redundancy, adopted within the context of mobile backhaul networks. Motivated by this, we study the problem of how to share the available resources of a backhaul network among its competitors, with whom a Service Level Agreement (SLA) has been concluded. Thus, we present a systematic study of our proposed solutions focusing on a variety of empirical resource sharing heuristics and optimization frameworks. With this background, our work extends towards a novel fault restoration framework which can cost-effectively provide protection and restoration for the operators, enabling them with a parameterized objective function to choose desired paths based on traffic patterns of their end-customers. We then illustrate the survivability of backhaul networks with reduced amount of physical redundancy, by effectively managing geographically distributed backhaul network equipments which belong to different MNOs using ‘logically-centralized’ physically-distributed controllers, while meeting strict constraints on network availability and reliability
7

Dynamic network resources optimization based on machine learning and cellular data mining / Optimisation dynamique des ressources des réseaux cellulaires basée sur des techniques d'analyse de données et des techniques d'apprentissage automatique

Hammami, Seif Eddine 20 September 2018 (has links)
Les traces réelles de réseaux cellulaires représentent une mine d’information utile pour améliorer les performances des réseaux. Des traces comme les CDRs (Call detail records) contiennent des informations horodatées sur toutes les interactions des utilisateurs avec le réseau sont exploitées dans cette thèse. Nous avons proposé des nouvelles approches dans l’étude et l’analyse des problématiques des réseaux de télécommunications, qui sont basé sur les traces réelles et des algorithmes d’apprentissage automatique. En effet, un outil global d’analyse de données, pour la classification automatique des stations de base, la prédiction de la charge de réseau et la gestion de la bande passante est proposé ainsi qu’un outil pour la détection automatique des anomalies de réseau. Ces outils ont été validés par des applications directes, et en utilisant différentes topologies de réseaux comme les réseaux WMN et les réseaux basés sur les drone-cells. Nous avons montré ainsi, qu’en utilisant des outils d’analyse de données avancés, il est possible d’optimiser dynamiquement les réseaux mobiles et améliorer la gestion de la bande passante. / Real datasets of mobile network traces contain valuable information about the network resources usage. These traces may be used to enhance and optimize the network performances. A real dataset of CDR (Call Detail Records) traces, that include spatio-temporal information about mobile users’ activities, are analyzed and exploited in this thesis. Given their large size and the fact that these are real-world datasets, information extracted from these datasets have intensively been used in our work to develop new algorithms that aim to revolutionize the infrastructure management mechanisms and optimize the usage of resource. We propose, in this thesis, a framework for network profiles classification, load prediction and dynamic network planning based on machine learning tools. We also propose a framework for network anomaly detection. These frameworks are validated using different network topologies such as wireless mesh networks (WMN) and drone-cell based networks. We show that using advanced data mining techniques, our frameworks are able to help network operators to manage and optimize dynamically their networks
8

Implantation du processus de soins en nutrition

Fratino, Adriana 01 1900 (has links)
Problématique : Au Québec, le Processus de soins en nutrition (PSN) est peu utilisé, les organisations appréhendent que l’implantation sera ardue mais sont motivées à procéder. Objectif : Accompagner deux services de nutrition clinique d’établissements de santé de la grande région de Montréal dans le déploiement du PSN et documenter les barrières et facteurs facilitants. Méthodologie : L’Hôpital du Sacré-Cœur de Montréal et le CSSS Champlain–Charles-Le Moyne ont été recrutés. La collecte de données fut réalisée via des séances d’accompagnement tout au long du déploiement du PSN. Une rencontre de bilan fut effectuée dans chaque milieu, avec les nutritionnistes et les chefs de service. Les données colligées sont qualitatives. Les échanges furent enregistrés et un cahier de bord complété. La synthèse a été rédigée selon un modèle de gestion de changement. Résultats : Au total, 18 séances d’accompagnement eurent lieu et cinq rencontres de bilan. Les principaux obstacles à la mise en œuvre du PSN sont en grande partie liés à l'engagement des nutritionnistes, à la formation et aux contraintes de temps. Les principaux facteurs facilitants sont les présentations d’histoires de cas accompagnées de discussion et le manuel de la Terminologie internationale de diététique et de nutrition (TIDN). Discussion : Notre système de santé est de plus en plus sujet à des changements et les dirigeants devront optimiser les ressources. L’International Confederation of Dietetic Associations a suggéré d’adopter, à l’échelle internationale, le PSN en tant que cadre pour la profession. Les stratégies d’implantation portant sur des principes de gestion du changement organisationnel faciliteront l’intégration de ces changements importants. L’expérience des deux milieux documentés sera éclairante pour les autres organisations désirant implanter le PSN. / Problem: In Quebec, the use of the Nutrition Care Process (NCP) is limited, organizations apprehend its implantation will be arduous but are motivated to proceed. Objective: To accompany two clinical nutrition services of health facilities in the greater Montreal area in the deployment of the NCP and document the barriers and facilitating factors. Methodology: The Hôpital du Sacré-Cœur de Montréal and the CSSS Champlain–Charles-Le Moyne were recruited. Data collection was accomplished through accompanying sessions throughout the deployment of the NCP. An end of project meeting was held in each area, with nutritionists and heads of departments. The data collected is qualitative. The exchanges were recorded and a logbook was completed. The synthesis was written using a change management model. Results: A total of 18 accompanying sessions were held and five end of project meetings were held. The main obstacles to the implementation of the NCP are largely related to the commitment of nutritionists, training and time constraints. The main facilitating factors are the presentations of case studies with discussion and the manual of the International Dietetics and Nutrition Terminology (IDNT). Discussion: Our health system is increasingly subject to change and leaders will need to optimize resources. The International Confederation of Dietetic Associations suggested adopting the NCP as an international framework for the profession. Implementation strategies for organizational change management principles will facilitate the integration of these important changes. The experience of the two documented environments will be enlightening for other organizations wishing to implement the NCP.

Page generated in 0.5295 seconds