• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 4
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 11
  • 11
  • 11
  • 11
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodologie de résolution des problèmes d'interopérabilité dans le domaine du Product Lifecycle Management / A Methodology for solving interoperability problems in the field of Product Lifecycle Management

Paviot, Thomas 01 July 2010 (has links)
Le travail de recherche présenté dans ce mémoire s’intéresse aux problèmes d’interopérabilité dans le domaine du Product Lifecycle Management (PLM) et vise à proposer une méthodologie capable d’y remédier. Nous définissons l’objectif stratégique du PLM comme la maîtrise de la complexité qui caractérise le développement et le suivi des produits. Dans ce cadre, l’objectif de l’interopérabilité est le contrôle des interactions entre constituants de ce système complexe PLM. Nous montrons que cet objectif est atteint si on assure la continuité et la conservation du flux sémantique qui circule dans le système. Notre étude est restreinte aux seuls domaines de la conception et de la production, mais a l’ambition de pouvoir s’appliquer à d’autres domaines. La continuité du flux sémantique est assurée par une architecture que nous avons baptisée « médiation multi-échelle orientée services ». Le cœur de cette architecture, le médiateur, se charge d’orienter les flux sémantiques vers les systèmes concernés, et met en correspondance sémantique les informations échangées en s’appuyant sur un méta-modèle d’unification. Nous montrons que pour assurer la robustesse, la flexibilité et l’agilité du système ainsi constitué, il faut privilégier le choix d’un méta-modèle standard générique et extensible. A cet effet, nous proposons une cartographie du standard STEP permettant de choisir le méta-modèle pertinent. Nous illustrons le choix et la définition de ce méta-modèle dans le cas de deux problèmes d’interopérabilité des domaines de la conception et de la production : l’interopérabilité CAO/PDM et l’interopérabilité PDM/ERP. Nous expliquons notre démarche dans la mise en œuvre de la norme PLCS. Par ailleurs, nous introduisons un modèle d’annotations sémantiques du produit qui permet de reconstruire des vues multiples correspondant à différents besoins métiers. Un ensemble de démonstrateurs permet de valider nos propositions et nos résultats. / Research work presented in this manuscript deals with interoperability issues in the domain of Product Lifecycle Management (PLM) and aims at proposing a methodology able to remedy it. We define the objective of PLM as the control of the complexity that characterizes the development and monitoring of the product. In this context, the objective of the interoperability is to control the interactions between components of this PLM complex system. We demonstrate that this objective is reached if we ensure the continuity and the conservation of the semantic flow inside the system. Our study is restricted to design and production fields, but can be extended to other domains. The continuity of the semantic flow is guaranteed by an architecture that we entitled “service-oriented multi-layered mediation”. The main part of this architecture, the mediator, takes care to orientate the semantic flows towards the adequate systems, and semantically connect the exchanged information by relying on an unification meta-model. We demonstrate that, to ensure the robustness the flexibility and the agility of the so-constituted system, the choice of a generic and extensible standard meta-model should be favored. We thus proposed a mapping of STEP standard allowing to choose the adequate meta-model. We illustrate the choice and the definition of this meta-model in the case of two interoperability problems in the design and production domains: the interoperability CAD/PDM and the interoperability PDM/ERP. We illustrate our methodology in the implementation of the PLCS standard. Moreover, we introduce a model of product semantic tags that allows to rebuild the multiple product views corresponding to different actor needs. A set of demonstrators validate our propositions and our results.
2

Virtual Reality - Technologie für eine zentrale Schnittstelle im Produktentwicklungsprozess

Petermann, Dirk 20 February 2019 (has links)
Das in dieser Arbeit beschriebene VR-PLM Integrationskonzept stellt einen Ansatz dar, um den Prozess des Design Reviews mittels VR-Technologie zu unterstützen und in ein PLM-Konzept zu integrieren. Das Design Review kann hierdurch als ein andauernder Prozess verstanden werden, der sich entsprechend der Konzepte des Systems Engineering und der Integrierten Produktentwicklung über den gesamten Produktlebenszyklus und alle Entwicklungsdomänen erstreckt.
3

Test management in a PLM system context

González Corona, Alicia, Melle, Daniel January 2023 (has links)
The purpose of this final project work is to explore how tests are managed during the development of mechatronic products at a manufacturing company. This study aims to develop an information model and a process model that can be used in a PLM system. The research method used is a case study at Husqvarna Group. The different test departments in the Huskvarna site are studied. For that, two rounds of semistructured interviews and document studies are conducted to collect primary and secondary data. For each round, six interviews are conducted with experienced employees and then, a verification meeting is held. During the qualitative analysis, different keywords are highlighted and displayed in an activity and class diagram to represent the as-is test management process at the case company. Later, it is compared to the literature, and a proposal is made based on the results.
4

Méthodologie de résolution des problèmes d'interopérabilité dans le domaine du Product Lifecycle Management

Paviot, Thomas 01 July 2010 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire s'intéresse aux problèmes d'interopérabilité dans le domaine du Product Lifecycle Management (PLM) et vise à proposer une méthodologie capable d'y remédier. Nous définissons l'objectif stratégique du PLM comme la maîtrise de la complexité qui caractérise le développement et le suivi des produits. Dans ce cadre, l'objectif de l'interopérabilité est le contrôle des interactions entre constituants de ce système complexe PLM. Nous montrons que cet objectif est atteint si on assure la continuité et la conservation du flux sémantique qui circule dans le système. Notre étude est restreinte aux seuls domaines de la conception et de la production, mais a l'ambition de pouvoir s'appliquer à d'autres domaines. La continuité du flux sémantique est assurée par une architecture que nous avons baptisée « médiation multi-échelle orientée services ». Le cœur de cette architecture, le médiateur, se charge d'orienter les flux sémantiques vers les systèmes concernés, et met en correspondance sémantique les informations échangées en s'appuyant sur un méta-modèle d'unification. Nous montrons que pour assurer la robustesse, la flexibilité et l'agilité du système ainsi constitué, il faut privilégier le choix d'un méta-modèle standard générique et extensible. A cet effet, nous proposons une cartographie du standard STEP permettant de choisir le méta-modèle pertinent. Nous illustrons le choix et la définition de ce méta-modèle dans le cas de deux problèmes d'interopérabilité des domaines de la conception et de la production : l'interopérabilité CAO/PDM et l'interopérabilité PDM/ERP. Nous expliquons notre démarche dans la mise en œuvre de la norme PLCS. Par ailleurs, nous introduisons un modèle d'annotations sémantiques du produit qui permet de reconstruire des vues multiples correspondant à différents besoins métiers. Un ensemble de démonstrateurs permet de valider nos propositions et nos résultats.
5

Cadre de modélisation pour les systèmes PLM en entreprise étendue. Application aux PME mécaniciennes.

Le Duigou, Julien 22 April 2010 (has links) (PDF)
Ce travail s‟intéresse à la gestion d‟informations techniques sur l‟ensemble du cycle de vie du produit et à travers l‟ensemble de l‟entreprise étendue. Il a pour champ d‟application le domaine des systèmes d‟informations supports au PLM dans les PME mécaniciennes. L‟objectif est de faciliter la mise en œuvre de système PLM par l‟apport d‟une part d‟une méthode de modélisation et d‟autre part d‟un cadre de modélisation. Pour ce faire, nous avons mis en place une méthode inductive de modélisation d‟entreprise basée sur les besoins. Cette méthode prend en compte les besoins de l‟entreprise, les processus à mettre en œuvre pour réaliser ces besoins et le modèle de données à implémenter. Elle a été utilisée dans trois entreprises pilotes correspondant à trois domaines distincts de l‟industrie mécanique chez les PME. Un cadre de modélisation a été conçu pour faciliter la mise en œuvre de cette méthode. Il inclut une carte des besoins PLM, un modèle de processus de développement produit et un modèle de données générique. Chacun de ces livrables a trois niveaux de généricité distincts : un niveau générique, englobant tous les objets d‟entreprise, un niveau partiel, regroupant les objets d‟un domaine d‟activité donné, et le niveau particulier, contenant les objets spécifiques à une entreprise particulière. L‟apport principal de cette étude réside dans l‟aspect inductif de la méthode de modélisation qui permet d‟expliciter les besoins implicites, et le cadre de modélisation proposant une spécialisation poussée du modèle de données, tout en en garantissant l‟interopérabilité. L‟application de cette méthodologie au travers d‟un système d‟informations supportant notre approche a été testée dans différents cas d‟études.
6

Gestion et visualisation de données hétérogènes multidimensionnelles : application PLM à la neuroimagerie / Management and visualisation oh heterogeneous multidimensional data : PLM application to neuroimaging

Allanic, Marianne 17 December 2015 (has links)
La neuroimagerie est confrontée à des difficultés pour analyser et réutiliser la masse croissante de données hétérogènes qu’elle produit. La provenance des données est complexe – multi-sujets, multi-analyses, multi-temporalités – et ces données ne sont stockées que partiellement, limitant les possibilités d’études multimodales et longitudinales. En particulier, la connectivité fonctionnelle cérébrale est analysée pour comprendre comment les différentes zones du cerveau travaillent ensemble. Il est nécessaire de gérer les données acquises et traitées suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractéristiques. Cette thèse a pour objectif de permettre l’exploration de relations complexes entre données hétérogènes, ce qui se décline selon deux axes : (1) comment gérer les données et leur provenance, (2) comment visualiser les structures de données multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont présentées à l’issue d’un état de l’art sur les domaines de la gestion de données hétérogènes et de la visualisation de graphes. Le modèle de données BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des données de neuroimagerie en fonction des étapes d’une étude et prend en compte le caractère évolutif de la recherche grâce à l’association de classes spécifiques à des objets génériques. L’implémentation de ce modèle au sein d’un système PLM (Product Lifecycle Management) montre que les concepts développés depuis vingt ans par l’industrie manufacturière peuvent être réutilisés pour la gestion des données en neuroimagerie. Les GMD (Graphes Multidimensionnels Dynamiques) sont introduits pour représenter des relations complexes entre données qui évoluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a été créé pour permettre le stockage et l’échange de GMD entre applications. La méthode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la préservation partielle de la carte mentale de l’utilisateur et l’alternance de vues complètes et réduites des données. La méthode OCL est appliquée à l’étude de la connectivité fonctionnelle cérébrale au repos de 231 sujets représentées sous forme de GMD – les zones du cerveau sont représentées par les nœuds et les mesures de connectivité par les arêtes – en fonction de l’âge, du genre et de la latéralité : les GMD sont obtenus par l’application de chaînes de traitement sur des acquisitions IRM dans le système PLM. Les résultats montrent deux intérêts principaux à l’utilisation de la méthode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre états du GMD. / Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization. The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states.
7

Unlocking Product Lifecycle Management Potential: A Self-Assessment framework for maturity. : A case study on Tetra Pak, Sweden

Lande, Tejas January 2023 (has links)
In the fluctuating and competitive business world, the significance of Product Lifecycle Management is on the rise. It's becoming a pivotal strategy for organizations keen on preserving their market competitiveness. However, the practical execution of PLM often poses tangible difficulties. Even though businesses recognize the potential benefits of PLM, the challenges in its effective deployment tend to create hurdles, making the implementation process complex and formidable. This study centered on Tetra Pak applying a distinct framework and a statistical approach to assess the level of PLM maturity. Utilizing a quantitative research methodology, a survey tool that was specifically designed to be in line with this framework was adopted. The research carefully examined the PLM-related business dimensions and components, and the results ultimately revealed Tetra Pak’s overall PLM maturity levels. This method produced a thorough understanding of the company's PLM framework and uncovered potential areas that could use improvement. The findings from this study contribute to a wider comprehension of PLM's role in bolstering sustainability and competitiveness in the contemporary business landscape. The maturity framework, developed as part of this research specific to Tetra Pak, serves as a versatile instrument to steer PLM implementation. This framework assists businesses in adapting to shifting strategies, thereby helping them to maintain a competitive advantage in an ever-changing market.
8

Digitala Tvillingar : Verklighet eller hype? / Digital Twins

Ruderer, Marcus, Stéen, Signe January 2020 (has links)
Digitala tvillingar har på de senaste åren blivit ett väldigt aktuellt och omtalat begrepp. I det här examensarbetet undersöks det om termen enbart är en hype eller om det faktiskt är verktyget för att utveckla olika branscher till något bättre. Projektet fokuserar främst på produktions- och utvecklingsindustrin, men även inom exempelvis stadsplanering och motorsport förklaras det vad digitala tvillingar används till. En viktig del i projektet är även Industri 4.0 och Sakernas Internet. Syftet (och resultatet) för det utförda examensarbetet är att ta reda på vad företag anser gynnsamt, såväl som missgynnsamt med digitala tvillingar, samt fastställa vilka barriärer det finns hos ett företag för att börja använda sig av digitala tvillingar. Syftet är även att utforska hur digitala tvillingar införs i ett företags produktutvecklingsprocess, samt vilken roll en fysisk provning får hos ett företag som introducerar digitala tvillingar. I projektets syfte ingår också att ta reda på mer om digitala tvillingar ur ett utvecklingsperspektiv, för att utreda hur kapaciteten förefaller hos en produkt som är testad och utvecklad i kombination med digital och verklig miljö. Vad finns det för data att utläsa, och i vilka fall finns det potential för en digital tvilling? För att nå önskade resultat med projektet har en tablettmaskin skapats i CAD. Med hjälp av den tredimensionella modellen visas det hur en digital tvilling kan användas för produktionsanläggningar (specifikt process- och tillverkningsindustri) genom att montera sensorer på den tredimensionella modellen, som även ska monteras identiskt på en fysisk motsvarighet. Under projektets genomförande undersöks även Gartners hypekurva och därmed vad som är hype och inte hype. I slutet av rapporten diskuteras bland annat vad som är möjligt att simulera med digitala tvillingar och vad som inte är det. Slutsatsen gällande om en digital tvilling är en hype eller inte, resulterar i att digitala tvillingar är ett verktyg som blir vad det skapas till. Anses en digital tvilling vara en hype, ja då kanske det egentligen är själva förväntningarna som är överskattade, och inte den digitala tvillingen i sig. / Digital twins have in recent years become a very current and discussed concept. This thesis examines whether the term is merely a hype or whether it is the tool for developing different industries for something better. The project focuses mainly on the manufacturing and development industry, but also what digital twins are used for in e.g. urban planning and motorsport. An important part of the project is also Industry 4.0 and the Internet of Things (IoT). The purpose (and result) of this Bachelor thesis is to find out what companies consider favourable, as well as unfavourable with digital twins, and to determine what barriers a company encounters to start using digital twins. The purpose is also to explore how digital twins are introduced into a company's product development process, as well as which role a physical test at a company that introduces digital twins has. The purpose of the project also includes finding out more about digital twins from a development perspective, to investigate how the capacity of a product tested and developed in combination with digital and real environment appears. What kind of data is there to read, and in what cases is there a potential for a digital twin? To achieve the desired results, a tablet machine has been created in CAD. The threedimensional model shows how a digital twin can be used for production facilities (specific process- and manufacturing industry) by mounting sensors on the three-dimensional model, which should also be mounted equally on a physical counterpart. During the project's implementation, Gartner's hype curve is also examined and thus what is hype and not hype. At the end of the report there is a discussion including e.g. what is possible to simulate with digital twins and what is not. The conclusion regarding whether a digital twin is a hype or not, results in digital twins being a tool that becomes what it is created for. Is a digital twin considered a hype, well then maybe it is actually the expectations that are overestimated, and not the digital twin itself.
9

Product structure modeling for ETO system product considering the product lifecycle : A case study of ABB Mine Hoist

Zhang, Sumei January 2019 (has links)
In order to gain competitive advantages in markets, companies have provided a variety of customized products to satisfy customer-specific requirements, leading to not only a large amount of product data but also high cost, long lead-time and complexity of quality control. Efficient product data management throughout the product lifecycle has become increasingly crucial, of which product structure management is regarded as the most important constituent.  The study took ABB Mine Hoist system as a case to investigate how to construct a generic product structure model fit for engineer-to-order system offerings with the consideration of their sales-delivery product lifecycle. The aim of the model is to facilitate the product-related information sharing and reuse across a company, and the integration of different business operations throughout the entire product lifecycle as well. Based on the current situation analysis of product data management on ABB Mine Hoist, three major issues were identified which need to be addressed in the formulation of a generic structure model: namely the integration of requirements of multiple disciplines; the consistency of product information throughout the product lifecycle; and the constant update of product repository. Through illustrating the formulation of ABB Mine Hoist generic structure model, the method of how to construct a generic product structure model for engineer-to-order system product was presented. The model was achieved by applying the framework of the step-based product model and was regarded as a result of integrating domain-specific requirements. The adaptive generic product structure model was then employed to display the role of this generic model in the different phases of a sales-delivery lifecycle. The model could serve as a “master concept” to transfer common product information in the product lifecycle. It’s expected to benefit the business of engineer-to-order system product through improving the integration of different disciplines, enhancing information exchange and reuse. It could also provide an abstract and conceptual basis for potential product repository to reinforce data consistency and completeness.
10

Product Requirements Management for Digital Product Passports : A Case Study on Object-Centric Information Modeling & Application of Requirements / Produktkravhantering för Digitala Produktpass : En Fallstudie om Objektcentrerad Informationsmodellering & Applicering av Krav

Nettelbladt, Max, Stojanovski, Kevin January 2024 (has links)
This thesis provides insights into the feasibility of managing product requirements in a concept leveraging an object-centric information model. The aim of this concept is to provide efective management of product requirements in the context of rising volume and complexity of requirements. Firstly, benefts and challenges between the current document-centric way of managing requirements and the novel object-centric concept for managing requirements are mapped and presented. Secondly, the organizational prerequisites necessary for adopting the object-centric product requirement applicability concept are explored and insights into how this transition can be facilitated with knowledge management are generated. Thirdly, the accuracy of this novel concept is evaluated in terms of applying the correct requirements onto products and not more nor less. The methods in this thesis are of mixed nature and combine qualitative and quantitative data sets. The quantitative data was collected from the analysis of the requirement applicability concept and the previous tests of the same concept on diferent products at Company X. The analysis of quantitative data for concept accuracy revolved around interpreting the nature of negative- and positive delta values following an automatic application of requirements in the novel object-centric concept. The former of these delta values relates to relevant requirements missing onto products whereas the latter relates to non-relevant requirements being applied following the automatic application. The qualitative data was collected mainly through a comprehensive literature review, semi-structured interviews, a workshop, meetings, Company X documents and observations. The analysis of qualitative data was done via an adaptation of two frameworks: The Multi-Dimensional Framework for Digital Transformation by Hanelt et al, 2021 and The Process of Organizational Knowledge Creation by Nonaka, 1994. These adapted frameworks were leveraged to generate insights into the necessary organizational prerequisites for adopting the object-centric product requirement applicability concept. While benefts and challenges exist between the two diferent ways of managing requirements, these are not weighted and thus no defnitive conclusion on best practice is drawn. Instead these fndings provide organizations a reference point for evaluating each approach in relation to their own circumstances. Some of the prerequisites identifed as critical for adopting an object-centric product requirement applicability model are a digital library of requirement specifcations that are convertible to object-centric data format, and a suitable PLM strategy chosen by the Top Management Teams that is aiding the development of the concept. As for knowledge management in order to transition to the new concept, fndings show that standardized knowledge creation and knowledge exchange is necessary as well as developing centralized knowledge databases. Lastly, the quantitative fndings indicate that the applicability concept is accurate, but that there is a need for additional iterations with model improvements where the negative delta can be eliminated and the positive delta held at an acceptable level. / Den här studien ger insikter om genomförbarheten av att hantera produktkrav i ett koncept som utnyttjar en objektcentrerad informationsmodell. Syftet med detta koncept är att tillhandahålla efektiv hantering av produktkrav i samband med att de ökar i volym samt komplexitet. Studien kartlägger först fördelar och utmaningar mellan det nuvarande dokumentcentrerade sättet att hantera krav och det nya objektcentrerade konceptet. Även de organisatoriska förutsättningar som krävs för att införa det objektcentrerade produktkravskonceptet undersöks i samband med hur denna övergång kan underlättas med hjälp av kunskapshantering. Slutligen så utvärderas det objektcentrerade konceptet för kravapplicering beträfande hur exakt konceptet är i att applicera rätt krav på produkter. Metodiken i denna studie kombinerar kvalitativa och kvantitativa datamängder. Den kvantitativa datan samlades in från analys av kravappliceringskonceptet samt de tidigare testerna av konceptet på olika produkter som gjorts av Företag X. Analysen av kvantitativ data för hur exakt konceptet är i att applicera rätt krav kretsar kring att förstå grundorsakerna till de negativa och positiva deltavärden som uppkommit efter en automatisk applicering av krav i det nya objektcentrerade konceptet. Det negativa deltavärdet relaterar till nödvändiga krav som saknas på produkter, medan det positiva deltavärdet avser icke-relevanta krav som har applicerats efter en systemförfrågan och automatisk applicering av krav. Den kvalitativa datan samlades huvudsakligen in genom en omfattande litteraturstudie, semistrukturerade intervjuer, workshops, möten, dokument från Företag X och observationer. Analysen av kvalitativ data gjordes via en anpassning av två vetenskapliga ramverk: The Multi-Dimensional Framework for Digital Transformation av Hanelt et al, 2021 och The Process of Organizational Knowledge Creation av Nonaka, 1994. Dessa anpassade ramverk utnyttjas för att generera insikter i de nödvändiga organisatoriska förutsättningarna som krävs för att införa det objektcentrerade kravappliceringskonceptet i en organisation. Fördelar och utmaningar med de två olika sätten att hantera krav viktades inte i denna studie, därför dras ingen defnitiv slutsats om bästa praxis. Istället ger dessa fynd en referenspunkt till organisationer att utvärdera bästa praxis i förhållande till sina egna omständigheter. Några av förutsättningarna identiferade som kritiska för att tillämpa en objektcentrerad produktkravappliceringsmodell är ett digitalt bibliotek av kravspecifkationer som är konverterbara till objektcentrerat dataformat, samt en PLM-strategi införd av de högsta ledningsgrupperna som hjälper till med stödja det objekcentrerade konceptet för produktkravsapplicering. Vad gäller kunskapshantering för att övergå till det nya konceptet visar resultaten att standardiserad kunskapsskapande och utbyte av kunskap är nödvändigt, samt utvecklingen av centraliserade kunskapsdatabaser. Slutligen indikerar de kvantitativa resultaten att tillämpningskonceptet är noggrant, men att ytterligare iterationer med modellförbättringar behövs där den negativa deltan kan elimineras och där den positiva deltan hålls på en acceptabel nivå.

Page generated in 0.1025 seconds