201 |
Developing a Framework for International Projects of ERP Implementation / Entwicklung eines Rahmens für internationale Projekte der ERP-ImplementierungYazdani Rashvanlouei, Kourosh January 2017 (has links) (PDF)
Enterprise Systeme werden immer mehr von Bedeutung, was sie in die Mitte der Aufmerksamkeit und der Berücksichtigung durch Organisationen in verschiedensten Formen rückt – seien es Unternehmen oder Industrien von riesigen öffentlichen oder privaten Organisationen bis hin zu mittleren und kleinen Dienstleistungsunternehmen. Diese Systeme verbessern sich ständig, sowohl funktionell, als auch technologisch und sie sind unumgänglich für Unternehmen, um ihre Produktivität zu vergrößern und um in dem nationalen und globalen Wettbewerb mitzuhalten.
Da lokale Softwarelösungen die Bedingungen, speziell von großen Betrieben, funktionell und technologisch nicht erfüllen konnten und da riesige globale Softwarehersteller, wie SAP, Oracle und Microsoft ihre Lösungen rapide verbessern und sie ihren Markt immer mehr über den Globus expandieren, nimmt die Nachfrage für diese globalen Marken und deren nahezu einwandfreien Softwarelösungen täglich zu. Die Zustimmung für internationale ERP Unternehmensberatungsanwendungen nimmt deswegen exponentiell zu, während die Forschung der beeinflussenden Faktoren und des Fachwissens wenig verbreitet ist. Deswegen ist es so dringlich, dieses Gebiet zu erforschen.
Das schlussendliche fünf-in-fünf Framework dieser Studie sammelt zum ersten Mal in der Geschichte alle historisch erwähnten, kritischen Erfolgsfaktoren und Projektaktivitäten. Diese wurden in fünf Phasen unterteilt und nach den fünf Schwerpunkten der internationalen ERP Projektdurchführung kategorisiert. Dieses Framework bietet einen Überblick und bildet einen umfassenden Fahrplan für solche Projekte. / The importance of enterprise systems is increasingly growing and they are in the center of attention and consideration by organizations in various types of business and industries from extra-large public or private organizations to small and medium-sized service sector business. These systems are continuously advancing functionally and technologically and are inevitable and ineluctable for the enterprises to maximize their productivity and integration in current competitive national and global business environments.
Also, since local software solutions could not meet the requirements of especially large enterprises functionally and technically, and as giant global enterprise software producers like SAP, Oracle and Microsoft are improving their solutions rapidly and since they are expanding their market to more corners of the globe, demand for these globally branded low-defect software solutions is daily ascending. The agreements for international ERP implementation project consultancy are, therefore, exponentially increasing, while the research on the influencing factors and know-hows is scattered and rare, and thus, a timely urgency for this field of research is being felt.
The final developed five-in-five framework of this study, for the first time, collects all mentioned-in-the-history critical success factors and project activities, while sequencing them in five phases and categorizing them in five focus areas for international ERP implementation projects. This framework provides a bird’s-eye view and draws a comprehensive roadmap or instruction for such projects.
|
202 |
Three Essays on the Procurement of Essential Medicines in Developing Countries / Drei Aufsätze zur Beschaffung unentbehrlicher Medikamente in EntwicklungsländernLauton, Felix January 2021 (has links) (PDF)
The first problem is that of the optimal volume allocation in procurement. The choice of this problem was motivated by a study whose objective was to support decision-making at two procurement organizations for the procurement of Depot Medroxyprogesterone Acetate (DMPA), an injectable contraceptive. At the time of this study, only one supplier that had undergone the costly and lengthy process of WHO pre-qualification was available to these organizations. However, a new entrant supplier was expected to receive WHO qualification within the next year, thus becoming a viable second source for DMPA procurement. When deciding how to allocate the procurement volume between the two suppliers, the buyers had to consider the impact on price as well as risk. Higher allocations to one supplier yield lower prices but expose a buyer to higher supply risks, while an even allocation will result in lower supply risk but also reduce competitive pressure, resulting in higher prices. Our research investigates this single- versus dual-sourcing problem and quantifies in one model the impact of the procurement volume on competition and risk. To support decision-makers, we develop a mathematical framework that accounts for the characteristics of donor-funded global health markets and models the effects of an entrant on purchasing costs and supply risks. Our in-depth analysis provides insights into how the optimal allocation decision is affected by various parameters and explores the trade-off between competition and supply risk. For example, we find that, even if the entrant supplier introduces longer leads times and a higher default risk, the buyer still benefits from dual sourcing. However, these risk-diversification benefits depend heavily on the entrant’s in-country registration: If the buyer can ship the entrant’s product to only a selected number of countries, the buyer does not benefit from dual sourcing as much as it would if entrant’s product could be shipped to all supplied countries. We show that the buyer should be interested in qualifying the entrant’s product in countries with high demand first.
In the second problem we explore a new tendering mechanism called the postponement tender, which can be useful when buyers in the global health industry want to contract new generics suppliers with uncertain product quality. The mechanism allows a buyer to postpone part of the procurement volume’s allocation so the buyer can learn about the unknown quality before allocating the remaining volume to the best supplier in terms of both price and quality. We develop a mathematical model to capture the decision-maker’s trade-offs in setting the right split between the initial volume and the postponed volume. Our analysis shows that a buyer can benefit from this mechanism more than it can from a single-sourcing format, as it can decrease the risk of receiving poor quality (in terms of product quality and logistics performance) and even increase competitive pressure between the suppliers, thereby lowering the purchasing costs. By considering market parameters like the buyer’s size, the suppliers’ value (difference between quality and cost), quality uncertainty, and minimum order volumes, we derive optimal sourcing strategies for various market structures and explore how competition is affected by the buyer’s learning about the suppliers’ quality through the initial volume.
The third problem considers the repeated procurement problem of pharmacies in Kenya that have multi-product inventories. Coordinating orders allows pharmacies to achieve lower procurement prices by using the quantity discounts manufacturers offer and sharing fixed ordering costs, such as logistics costs. However, coordinating and optimizing orders for multiple products is complex and costly. To solve the coordinated procurement problem, also known as the Joint Replenishment Problem (JRP) with quantity discounts, a novel, data-driven inventory policy using sample-average approximation is proposed. The inventory policy is developed based on renewal theory and is evaluated using real-world sales data from Kenyan pharmacies. Multiple benchmarks are used to evaluate the performance of the approach. First, it is compared to the theoretically optimal policy --- that is, a dynamic-programming policy --- in the single-product setting without quantity discounts to show that the proposed policy results in comparable inventory costs. Second, the policy is evaluated for the original multi-product setting with quantity discounts and compared to ex-post optimal costs. The evaluation shows that the policy’s performance in the multi-product setting is similar to its performance in the single-product setting (with respect to ex-post optimal costs), suggesting that the proposed policy offers a promising, data-driven solution to these types of multi-product inventory problems. / Der erste Teil, welcher eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik entstanden ist, ist durch eine Studie motiviert, die Entscheidungsträgern zweier Einkaufsorganisationen beim Einkauf von Depot Medroxyprogesterone Acetate (DMPA), einem länger wirkenden Verhütungsmittel, unterstützen sollte. Zum Zeitpunkt der Studie stand den Organisationen nur ein qualifizierter Lieferant zur Verfügung. Ein zweiter Zulieferer stand kurz vor der Zulassung. Ziel der Arbeit war es den Mehrwert des neuen Lieferanten zu quantifizieren und die optimale Aufteilung der Bestellmengen zwischen beiden Lieferanten zu ermitteln. Hierbei spielt die Abwägung von Preisen (getrieben durch den Wettbewerb zwischen beiden Lieferanten) und Risiko (getrieben durch unsichere Lieferzeiten und Ausfallwahrscheinlichkeiten) eine entscheidende Rolle. In unserer Arbeit zeigen wir wie sich die optimale Aufteilung anhand diverser Parameter, wie Lieferzuverlässigkeit, Kosten und Kapazität, verändert, und untersuchen die Abwägungsentscheidung zwischen Wettbewerb und Risiken.
Im zweiten Teil, der ebenfalls eine gemeinsame Arbeit mit Dr. Alexander Rothkopf und Prof. Dr. Richard Pibernik ist, untersuchen wir einen innovativen Einkaufsmechanismus den wir "Postponement Tender" nennen. Das zugrundeliegende Problem ist das eines Einkäufers, welcher mit der unsicheren Qualität eines neuen Lieferanten konfrontiert ist, und der daraus resultierenden Allokationsentscheidung zwischen bestehendem und neuen Lieferanten. Anstatt alles auf einmal zu vergeben, kann der Einkäufer auch zuerst einen Teil des Volumens an beide Lieferanten vergeben, um die unsichere Qualität des neuen Lieferanten besser einzuschätzen. Nachdem die Lieferanten die ersten Volumina geliefert haben kann der Einkäufer die Qualität der Lieferanten besser beurteilen und kauft dann die nachgelagerte Menge vom besseren Lieferanten. Da die Lieferanten bereits zu Beginn Preise festlegen müssen, kann der Einkäufer durch diesen Mechanismus sowohl durch verbesserten Wettbewerb profitieren als auch von einem niedrigeren Qualitätsrisiko, da er dabei etwas über die Qualität der Lieferanten lernt. Wir zeigen in einer detaillierten Analyse wie, abhängig von Einkaufs- und Wettbewerbssituation, die Aufteilung zwischen dem ersten und dem zweiten Teil erfolgen sollte und unter welchen Bedingungen der "Postponement Tender" besser als eine klassische Einzelquellenbeschaffung ist.
Der dritte Teil ist durch den Business Case kenianischer Apotheken motiviert: diese können durch die Koordination von Bestellungen niedrigere Einkaufspreise aufgrund von Mengenrabatten bei Lieferanten erzielen sowie fixe Bestellkosten wie Logistikkosten teilen. Aufgrund einer Vielzahl von Produkten ist diese Koordination allerdings sehr komplex und mit einem hohen Aufwand sowie Kosten verbunden. Um diese Hürde zu überwinden entwickle ich eine neue, datengetriebene Bestellpolitik für mehrperiodische Bestandsmanagementprobleme mit mehreren Produkten und Skaleneffekten in fixen sowie variablen Bestellkosten. Die entwickelte Politik beruht auf den Prinzipien von Erneuerungstheorie und Sample Average Approximation. Des Weiteren analysiere ich die Performance dieser Politik anhand realer Daten aus dem zugrundeliegenden Business Case. In einer ersten Auswertung zeigt sich, dass die resultierenden Kosten nah an denen der theoretisch optimalen Bestellpolitik liegen. Weiter wird gezeigt, dass sich das Verhältnis zu ex-post optimalen Kosten in Szenarien, in denen es keine theoretisch optimale Bestellpolitik gibt (mehrere Produkte und Mengenrabatte) im selben Rahmen befindet wie in Szenarien mit optimaler Bestellpolitik. Insgesamt zeigt der entwickelte Ansatz viel Potential für die Lösung komplexer Bestandsplanungsprobleme.
|
203 |
Die Prüfungshonorare branchenspezialisierter Wirtschaftsprüfer in der deutschen Versicherungsbranche / Audit Fees of Industry Specialist Audit Partners in the German Insurance IndustryVölker, Ulf Gunnar January 2021 (has links) (PDF)
Trotz der immensen ökonomischen Bedeutung von Versicherungen für marktwirtschaftlich orientierte Volkswirtschaften haben sich bis dato nur wenige nationale und internationale Forschungsarbeiten dem Abschlussprüfermarkt für Versicherungsunternehmen gewidmet. Die vorliegende Arbeit hat sich dieser Thematik angenommen und liefert empirische Resultate bezüglich des Abschlussprüfermarktes für Versicherungsunternehmen in Deutschland. Neben einer detaillierten Strukturanalyse steht hierbei die Frage im Fokus, ob testierende Prüfungspartner, welche in Bezug auf die deutsche Versicherungsbranche einen hohen Spezialisierungsgrad aufweisen, die Höhe des erhobenen Prüfungshonorars beeinflussen. Dabei wird auch der Tatsache Rechnung getragen, dass in Deutschland gewöhnlich zwei Wirtschaftsprüfer (Links- und Rechtsunterzeichner) mit unterschiedlichen Aufgaben- und Verantwortungsbereichen den Jahres- bzw. den Konzernabschluss testieren.
Die Resultate liefern Evidenz dafür, dass insbesondere Rechtsunterzeichner, denen entweder aufgrund ihres verhältnismäßig hohen Marktanteils bei Abschlussprüfungen in der Versicherungsbranche oder aufgrund ihrer Mitgliedschaft im IDW-Versicherungsfachausschuss ein hoher Spezialisierungsgrad zugesprochen wird, ökonomisch relevante Honoraraufschläge erzielen können. / Despite the immense economic importance of insurances for market-oriented economies, so far only few national and international research studies have been focused on the audit market for insurance companies. This is remarkable because the audit plays a central role especially in the context of highly trust-based products such as insurances. This doctoral thesis has taken up this topic and provides empirical evidence regarding the audit market for insurance companies in Germany. In addition to a detailed market structure analysis and in line with recent developments in empirical audit research, the thesis focuses on whether audit partners, who have a high degree of specialisation in the German insurance industry, influence the level of audit fees.
The focus on the audit partner level is due to the fact that in reality it is not the appointed audit firm itself, but the audit partners and their teams in a particular office, who plan and perform the audit and issue the audit opinion. Therefore, the quality of an individual audit should depend significantly on the expertise of the audit partners involved and not solely on the appointed audit firm. Within an audit firm the expertise of different audit partners can vary significantly.
This is because systems for sharing knowledge and distributing information within a firm, which are necessary for the harmonisation of quality-relevant expertises, cannot function to the full extent due to sometimes insurmountable obstacles. This implies that within an audit firm the quality of work among auditors differs. With regard to industry specialists it can be assumed that they provide a higher audit quality than non-specialised auditors. Especially in highly regulated and complex industries such as the insurance industry specialisation could be decisive for audit quality. In the sense of a product differentiation strategy under assumption of an appropriate demand this higher audit quality justifies that industry specialist audit partners achieve higher audit fees. However, in contrast it can be argued that the extensive sector knowledge gained through sector specialisation enables the generation of economies of scale in addition to higher audit quality. Assuming that these economies of scale are passed on to clients due to the prevailing competitive situation, a reduction of audit fees may arise – despite a higher audit quality.
The aim of this dissertation is to find out whether these theoretical assumptions are empirically verifiable at the audit partner level in the German insurance industry. The fact that in Germany usually two audit partners (engagement partner and review partner) with different tasks and responsibilities sign the audit report is also taken into account. The engagement partner usually sets his signature on the lower right side of the audit report. He is responsible for planning and conducting the audit and eventually for expressing the audit opinion. The review partner typically signs the lower left side of the audit report. He is usually not actively involved in the planning and conducting of the audit. Instead, he often serves as a report critique. Due to these different tasks and responsibilities, it could be that, for example, the industry specialist engagement partner has a different relevance for the audit fee than the industry specialist review partner.
In addition to a review of the national and international state of research regarding the influence of the audit partner level for audit quality and audit fees, the thesis provides a detailed structure analysis of the audit market for insurance companies in Germany for the years 2009 to 2013.
The results show that at audit firm level the audit market is highly concentrated compared to other German industries (HHI always above 0.52). KPMG is market leader every year. With an annual market share above 70%, with exception of 2009, generated by 68 to 85 engagements KPMG clearly stands out from other audit firms. The structural analysis at the audit partner level points out that in each year more engagement partners (between 78 and 89) are active than review partners (between 43 and 51). As a result, a review partner audits on average significantly more financial statements than an engagement partner. In principle, this finding supports the assumption that an engagement partner has significantly more work to do with the audit of financial statements due to his responsibilities and duties than a review partner. In terms of the number of audit partners employed, KPMG is always in first place. Furthermore, it can be stated on the basis of the results that a few engagement and review partners serve a large part of the market. For these audit partners it can be assumed that they are highly specialised and therefore have a high level of industry-specific expertise.
The subsequent empirical investigation of the influence of insurance industry specialist audit partners on the audit fee level is based on a data panel consisting of 760 observations from 171 insurance companies in Germany from the years 2009 to 2013. A total of seven different test variables are used to identify industry specialist audit partners. Six of them use the audit feebased market shares of audit partners; one of them is a dummy variable based on the membership in the IDW Insurance Expert Committee. The results of the regression analyses provide evidence that especially engagement partners, who are considered to have a high degree of specialisation due to their relatively high market share, can achieve economically relevant audit fee premiums. At the same time, the majority of the results suggest that in particular engagement partners sitting in the IDW Insurance Expert Committee earn higher audit fees. In contrast, for review partners specialised on the German insurance industry a significant influence on the audit fee level can only rarely be observed. In line with the results of previous research, this finding could be interpreted as an indication that an engagement partner is, due to his responsibilities and duties, of greater importance for the quality of an audit than a review partner. Insurance companies therefore predominantly reward only the specialist status of an engagement partner, as it is primarily the audit partner who embodies a higher (perceived) audit quality.
|
204 |
Learning Curve Effects in Hospitals as Highly Specialized Expert Organizations / Lernkurveneffekte in Krankenhäusern als hochspezialisierte ExpertenorganisationenBauer, Carsten January 2023 (has links) (PDF)
The collection at hand is concerned with learning curve effects in hospitals as highly specialized expert organizations and comprises four papers, each focusing on a different aspect of the topic. Three papers are concerned with surgeons, and one is concerned with the staff of the emergency room in a conservative treatment.
The preface compactly addresses the steadily increasing health care costs and economic pressure, the hospital landscape in Germany as well as its development. Furthermore, the DRG lump-sum compensation and the characteristics of the health sector, which is strongly regulated by the state and in which ethical aspects must be omnipresent, are outlined. Besides, the benefit of knowing about learning curve effects in order to cut costs and to keep quality stable or even improve it, is addressed.
The first paper of the collection investigates the learning effects in a hospital which has specialized on endoprosthetics (total hip and knee replacement). Doing so, the specialized as well as the non-specialized interventions are studied. Costs are not investigated directly, but cost indicators. The indicator of costs in the short term are operating room times. The one of medium- to long-term costs is quality. It is operationalized by complications in the post-anesthesia care unit. The study estimates regression models (OLS and logit). The results indicate that the specialization comes along with advantages due to learning effects in terms of shorter operating room times and lower complication rates in endoprosthetic interventions. For the non-specialized interventions, the results are the same. There are no possibly negative effects of specialization on non-specialized surgeries, but advantageous spillover effects. Altogether, the specialization can be regarded as reasonable, as it cuts costs of all surgeries in the short, medium, and long term. The authors are Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny, and Christian Ernst.
In the second paper surgeons’ learning curves effects in a teamwork vs. an individual work setting are in the focus of interest. Thus, the study combines learning curve effects with teamwork in health care, an issue increasingly discussed in recent literature. The investigated interventions are tonsillectomies (surgical excision of the palatine tonsils), a standard intervention. The indicator of costs in the short and medium to long term are again operating room times and complications as a proxy for quality respectively. Complications are secondary bleedings, which usually occur a few days after surgery. The study estimates regression models (OLS and logit). The results show that operating room times decrease with increasing surgeon’s experience. Surgeons who also operate in teams learn faster than the ones always operating on their own. Thus, operating room times are shorter for surgeons who also take part in team interventions. As a special feature, the data set contains the costs per case. This enables assuring that the assumed cost indicators are valid. The findings recommend team surgeries especially for resident physicians. The authors are Carsten Bauer, Oliver Unger, and Martin Holderried.
The third paper is dedicated to stapes surgery, a therapy for conductive hearing loss caused by otosclerosis (overflow bone growth). It is conceptually simple, but technically difficult. Therefore, it is regarded as the optimum to study learning curve effects in surgery. The paper seeks a comprehensive investigation. Thus, operating room times are employed as short-term cost indicator and quality as the medium to long term one. To measure quality, the postoperative difference between air and bone conduction threshold as well as a combination of this difference and the absence of complications. This paper also estimates different regression models (OLS and logit). Besides investigating the effects on department level, the study also considers the individual level, this means operating room times and quality are investigated for individual surgeons. This improves the comparison of learning curves, as the surgeons worked under widely identical conditions. It becomes apparent that the operating room times initially decrease with increasing experience. The marginal effect of additional experience gets smaller until the direction of the effect changes and the operating room times increase with increasing experience, probably caused by the allocation of difficult cases to the most experienced surgeons. Regarding quality, no learning curve effects are observed. The authors are Carsten Bauer, Johannes Taeger, and Kristen Rak.
The fourth paper is a systematic literature review on learning effects in the treatment of ischemic strokes. In case of stroke, every minute counts. Therefore, there is the inherent need to reduce the time from symptom onset to treatment. The article is concerned with the reduction of the time from arrival at the hospital to thrombolysis treatment, the so-called “door-to-needle time”. In the literature, there are studies on learning in a broader sense caused by a quality improvement program as well as learning in a narrower sense, in which learning curve effects are evaluated. Besides, studies on the time differences between low-volume and high-volume hospitals are considered, as the differences are probably the result of learning and economies of scale. Virtually all the 165 evaluated articles report improvements regarding the time to treatment. Furthermore, the clinical results substantiate the common association of shorter times from arrival to treatment with improved clinical outcomes. The review additionally discusses the economic implications of the results. The author is Carsten Bauer.
The preface brings forward that after the measurement of learning curve effects, further efforts are necessary for using them in order to increase efficiency, as the issue does not admit of easy, standardized solutions. Furthermore, the postface emphasizes the importance of multiperspectivity in research for the patient outcome, the health care system, and society. / Die vorliegende Arbeit befasst sich mit Lernkurveneffekten in Kliniken als hochspezialisierte Expertenorganisationen und umfasst vier Aufsätze, die sich jeweils mit einem anderen Aspekt des Themas beschäftigen. Der Fokus liegt dabei in den ersten drei Artikeln auf Lernkurveneffekten von Ärzten bei chirurgischen Eingriffen, im vierten Beitrag steht das Team der Notaufnahme als Ganzes im Fokus.
Das Vorwort beleuchtet in kompakter Form die stetig steigenden Gesundheitsausgaben, den damit steigenden Kostendruck, die Krankenhauslandschaft in Deutschland sowie ihre Entwicklung. Ferner wird das Vergütungssystem mittels Fallpauschalen wie auch die Besonderheiten des Gesundheitssektors, der stark staatlich reguliert ist und in dem ethische Aspekte omnipräsent sein müssen, umrissen. Nicht zuletzt wird der Nutzen des Wissens um Lernkurveneffekte skizziert, um Kosten zu senken und zudem die Qualität konstant zu halten oder sogar zu verbessern.
Der erste Aufsatz des Sammelbandes untersucht die Lerneffekte in einer Klinik, die sich auf endoprothetische Eingriffe (Hüft- und Kniegelenksersatz) spezialisiert hat. Es werden dabei zwei große Bereiche untersucht, der spezialisierte sowie der nicht-spezialisierte Bereich. Es werden keine Kosten direkt untersucht, sondern Kostenindikatoren verwendet. Der Indikator für die Kosten in der kurzen Frist sind die OP-Zeiten. Der Indikator für die mittlere bis lange Frist ist die Qualität. Sie wird über Komplikationen im Aufwachraum operationalisiert. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse zeigen, dass die Spezialisierung Vorteile durch Lerneffekte in Form von kürzeren OP-Zeiten und geringeren Komplikationsraten bei den endoprothetischen Eingriffen mit sich bringt. Für die nicht-spezialisierten OPs ergeben sich dieselben Resultate. Auch hier sinken die OP-Zeiten sowie die Komplikationen. Es kommt demnach nicht zu möglicherweise negativen Auswirkungen der Spezialisierung auf den nicht-spezialisierten Bereich, sondern es liegen vorteilhafte Spillover-Effekte vor. Insgesamt ist die Spezialisierung damit als sinnvoll zu betrachten, da sie die kurz-, mittel- und langfristigen Kosten für alle Operationen senkt. Die Autoren sind Carsten Bauer, Nele Möbs, Oliver Unger, Andrea Szczesny und Christian Ernst.
Im zweiten Artikel stehen die Unterschiede zwischen den Lernkurveneffekten von Ärzten, die teilweise im Team operieren und denen, die stets alleine operieren, im Vordergrund. Die Untersuchung verbindet somit Lernkurveneffekte mit Teamüberlegungen, welche in den letzten Jahren zunehmend diskutiert werden. Bei den betrachteten Eingriffen handelt es sich um Tonsillektomien (Entfernung der Gaumenmandeln), einen Standardeingriff. Die Indikatoren für die Kosten in der kurzen bzw. mittleren bis langen Frist sind auch hier die OP-Zeiten der Operationen bzw. Komplikationen als Maß für die Qualität. Die Komplikationen sind in diesem Fall Nachblutungen, die meist wenige Tage nach der Operation auftreten. Die Untersuchung selbst erfolgt mit Regressionsmodellen (KQ und Logit). Die Ergebnisse der Untersuchung zeigen, dass die OP-Zeiten mit zunehmender Erfahrung der Ärzte sinken. Ärzte, die auch im Team arbeiten, lernen dabei schneller als Ärzte, die stets alleine operieren. So sind die OP-Zeiten der Ärzte, die auch im Team arbeiten, geringer als die der anderen. Als Besonderheit stehen im verwendeten Datensatz die Fallkosten zur Verfügung, womit die Kostenindikatoren validiert werden können. Aus den Ergebnissen ergibt sich die Empfehlung, dass Assistenzärzte an Team-Operationen teilnehmen sollten. Die Autoren sind Carsten Bauer, Oliver Unger und Martin Holderried.
Der dritte Aufsatz widmet sich der Stapesplastik, mithilfe derer Schallleitungsschwerhörigkeit auf-grund von Otosklerose (überschießende Knochenbildung) behandelt werden soll. Die Eingriffe werden als ideale Untersuchungsmöglichkeit von Lernkurveneffekten in der Chirurgie angesehen, da sie konzeptionell einfach, jedoch technisch schwierig sind. Es wird eine möglichst umfassende Betrachtung angestrebt, indem die OP-Zeiten als kurzfristiger und die Qualität als mittel- bis langfristiger Kostenindikator herangezogen werden. Um Qualität zu operationalisieren, wird die postoperative Differenz zwischen Luft- und Knochenleitungsschwelle sowie die Kombination aus dieser Differenz mit der Abwesenheit von Komplikationen verwendet. Auch hier werden verschiedene Regressionsmodelle (KQ und Logit) geschätzt. In diesem Artikel wird neben der Klinikebene auch die Individualebene betrachtet, d.h. OP-Zeiten und Qualität für einzelne Ärzte untersucht, was den Vergleich individueller Lernkurven verbessert, da die Ärzte alle unter weitgehend identischen Bedingungen gearbeitet haben. Es zeigt sich, dass die OP-Zeiten mit zunehmender Erfahrung zunächst sinken. Der marginale Effekt von weiterer Erfahrung wird dabei mit zunehmender Erfahrung geringer bis sich die Richtung des Effektes ändert und die OP-Zeiten mit weiter zunehmender Erfahrung – vermutlich aufgrund der Allokation der schwierigeren Fälle auf die erfahrensten Ärzte – wieder steigen. Bezüglich Qualität sind keine Lernkurveneffekte feststellbar. Die Autoren sind Carsten Bauer, Johannes Taeger und Kristen Rak.
Der vierte Beitrag ist ein systematischer Literaturüberblick zu Lerneffekten bei der Behandlung von ischämischen Schlaganfällen. Bei einem Schlaganfall zählt jede Minute, weswegen die inhärente Notwendigkeit besteht, die Dauer vom Auftreten der Symptome bis zur Behandlung zu verkürzen. Der Artikel befasst sich mit der Verkürzung der Dauer vom Eintreffen der Patienten im Krankenhaus bis zur Behandlung mittels Thrombolyse, der sogenannten „Door-to-Needle Time“. In der Literatur gibt es hierzu Untersuchungen von Lernen im weiteren Sinne durch ein Qualitätsverbesserungsprogramm und Lernen im engeren Sinne, bei dem Lernkurveneffekte evaluiert werden. Daneben werden Studien ausgewertet, die sich mit den unterschiedlichen Zeiten zwischen Krankenhäusern mit niedrigen und hohen Fallzahlen befassen, da diese Unterschiede wahrscheinlich das Ergebnis von Lernen und Skaleneffekten sind. Nahezu alle der 165 ausgewerteten Artikel berichten von Verbesserungen bezüglich der Dauer bis zur Behandlung. Zudem unterstreichen die klinischen Ergebnisse die gängige Auffassung, dass eine kürzere Zeit vom Eintreffen im Krankenhaus bis zur Behandlung mit einem besseren Ergebnis einhergeht. Der Literaturüberblick diskutiert zudem die ökonomischen Implikationen der Ergebnisse. Der Autor ist Carsten Bauer.
Im Nachwort kommt u.a. zur Sprache, dass für die Nutzung der Lernkurveneffekte zur Effizienzsteigerung nach der Messung der Lerneffekte weitere Anstrengungen unternommen werden müssen, da die Thematik keine einfachen, standardisierten Lösungen zulässt. Zudem wird die Bedeutung der Mehrperspektivität in der Forschung für das Behandlungsergebnis des Patienten, das Gesundheitssystem und die Gesellschaft hervorgehoben.
|
205 |
Algorithmic Decision-Making Facilities: Perception and Design of Explainable AI-based Decision Support Systems / Förderung der algorithmischen Entscheidungsfindung: Wahrnehmung und Gestaltung von erklärbaren KI-basierten EntscheidungsunterstützungssystemenHerm, Lukas-Valentin January 2023 (has links) (PDF)
Recent computing advances are driving the integration of artificial intelligence (AI)-based systems into nearly every facet of our daily lives. To this end, AI is becoming a frontier for enabling algorithmic decision-making by mimicking or even surpassing human intelligence. Thereupon, these AI-based systems can function as decision support systems (DSSs) that assist experts in high-stakes use cases where human lives are at risk. All that glitters is not gold, due to the accompanying complexity of the underlying machine learning (ML) models, which apply mathematical and statistical algorithms to autonomously derive nonlinear decision knowledge. One particular subclass of ML models, called deep learning models, accomplishes unsurpassed performance, with the drawback that these models are no longer explainable to humans. This divergence may result in an end-user’s unwillingness to utilize this type of AI-based DSS, thus diminishing the end-user’s system acceptance.
Hence, the explainable AI (XAI) research stream has gained momentum, as it develops techniques to unravel this black-box while maintaining system performance. Non-surprisingly, these XAI techniques become necessary for justifying, evaluating, improving, or managing the utilization of AI-based DSSs. This yields a plethora of explanation techniques, creating an XAI jungle from which end-users must choose. In turn, these techniques are preliminarily engineered by developers for developers without ensuring an actual end-user fit. Thus, it renders unknown how an end-user’s mental model behaves when encountering such explanation techniques.
For this purpose, this cumulative thesis seeks to address this research deficiency by investigating end-user perceptions when encountering intrinsic ML and post-hoc XAI explanations. Drawing on this, the findings are synthesized into design knowledge to enable the deployment of XAI-based DSSs in practice. To this end, this thesis comprises six research contributions that follow the iterative and alternating interplay between behavioral science and design science research employed in information systems (IS) research and thus contribute to the overall research objectives as follows: First, an in-depth study of the impact of transparency and (initial) trust on end-user acceptance is conducted by extending and validating the unified theory of acceptance and use of technology model. This study indicates both factors’ strong but indirect effects on system acceptance, validating further research incentives. In particular, this thesis focuses on the overarching concept of transparency. Herein, a systematization in the form of a taxonomy and pattern analysis of existing user-centered XAI studies is derived to structure and guide future research endeavors, which enables the empirical investigation of the theoretical trade-off between performance and explainability in intrinsic ML algorithms, yielding a less gradual trade-off, fragmented into three explainability groups. This includes an empirical investigation on end-users’ perceived explainability of post-hoc explanation types, with local explanation types performing best. Furthermore, an empirical investigation emphasizes the correlation between comprehensibility and explainability, indicating almost significant (with outliers) results for the assumed correlation. The final empirical investigation aims at researching XAI explanation types on end-user cognitive load and the effect of cognitive load on end-user task performance and task time, which also positions local explanation types as best and demonstrates the correlations between cognitive load and task performance and, moreover, between cognitive load and task time. Finally, the last research paper utilizes i.a. the obtained knowledge and derives a nascent design theory for XAI-based DSSs. This design theory encompasses (meta-) design requirements, design principles, and design features in a domain-independent and interdisciplinary fashion, including end-users and developers as potential user groups. This design theory is ultimately tested through a real-world instantiation in a high-stakes maintenance scenario.
From an IS research perspective, this cumulative thesis addresses the lack of research on perception and design knowledge for an ensured utilization of XAI-based DSS. This lays the foundation for future research to obtain a holistic understanding of end-users’ heuristic behaviors during decision-making to facilitate the acceptance of XAI-based DSSs in operational practice. / Jüngste technische und algorithmische Fortschritte treiben die Integration von Systemen auf der Basis von künstlicher Intelligenz (KI) in nahezu alle Bereiche unseres täglichen Lebens voran. Inzwischen sind diese Systeme in der Lage, menschliche Intelligenz anhand von algorithmischer Entscheidungsfindung nachzuahmen und sogar zu übertreffen. Insbesondere können KI-basierte Systeme als Entscheidungsunterstützungssysteme (Decision Support Systems - DSS) dienen und damit Domänenexperten in hochsensiblen Anwendungsfällen helfen, bei denen Menschenleben auf dem Spiel stehen.
Dies resultiert in komplexen Modellen des maschinellen Lernens (ML), welche mathematische und statistische Algorithmen benutzen, um nichtlineares Entscheidungswissen automatisch abzuleiten. Besonders eine Unterklasse von ML-Modellen, die sogenannten Deep-Learning-Modelle (DL-Modelle), erreichen eine unübertroffene Leistung. Sie haben allerdings den Nachteil, dass sie für den Menschen nicht mehr nachvollziehbar sind. Diese Divergenz kann jedoch dazu führen, dass Endanwender nicht bereit sind, diese Art von KI-basierten DSS zu benutzen. Dadurch wird die Akzeptanz solcher Systeme beeinträchtigt.
Um dieses Problem anzugehen, ist der Forschungszweig der erklärbaren KI (Explainable Artificial Intelligence - XAI) entstanden. Darin werden Techniken und Methoden entwickelt, die das wahrgenommene Blackbox-Verhalten dieser Modelle aufbrechen. Die XAI-Methoden können für KI-basierte DSS eingesetzt werden und ermöglichen es, Entscheidungen und Modelle zu rechtfertigen, zu bewerten, zu verbessern und zu verwalten. Dieser Ansatz resultiert jedoch in einer Vielzahl von Erklärungstechniken, aus denen die Anwender eine passende Erklärung wählen müssen. Gleichzeitig werden diese Methoden zurzeit primär von Entwicklern für Entwickler konzipiert, ohne, dass dabei ermittelt wird, ob eine tatsächliche Eignung für den Endanwender gewährleistet ist. Im Umkehrschluss ist daher unbekannt, wie sich das mentale Modell eines Endanwenders im Umgang mit solchen Erklärungstechniken verhält.
Die vorliegende kumulative Dissertation thematisiert dieses Forschungsdefizit, indem die Wahrnehmung des Endanwenders im Umgang mit intrinsischen ML- und Post-Hoc-XAI-Erklärungen untersucht wird. Die gewonnenen Erkenntnisse werden in gestaltungsorientiertes Wissen synthetisiert, um den Einsatz von XAI-basierten DSS in der Praxis zu ermöglichen. Zu diesem Zweck umfasst die Dissertation sechs Forschungsbeiträge. Diese richten sich nach dem für den Bereich Information Systems (IS) typischen alternierendem Zusammenspiel zwischen verhaltenswissenschaftlicher und designorientierter Forschung und tragen wie folgt zu den übergeordneten Forschungszielen bei:
Zu Beginn erfolgt durch Erweiterung und Validierung des Modells Unified Theory of Acceptance and Use of Technology eine Untersuchung des Einflusses von Transparenz und (initialem) Vertrauen auf die Akzeptanz der Endanwender. Die Studie zeigt einen starken, aber indirekten Effekt beider Faktoren auf die Systemakzeptanz und liefert damit die wissenschaftliche Bestätigung für weitere Forschungsinitiativen. Diese Arbeit konzentriert sich insbesondere auf diesen übergeordneten Einflussfaktor Transparenz. Darauf aufbauend wird eine Systematisierung in Form einer Taxonomie und Analyse bestehender nutzerzentrierter XAI-Studien durchgeführt, um zukünftige Forschungsbestrebungen zu strukturieren. Diese Systematisierung ermöglicht anschließend empirische Untersuchungen weiterer Einflussfaktoren auf die Endanwenderwahrnehmung. Zunächst wird eine Untersuchung des theoretischen Zielkonflikts zwischen Leistung und Erklärbarkeit in intrinsischen ML-Algorithmen vorgenommen, welche eine dreiteilige Anordnung empirisch bestätigt. Ebenso erfolgt eine empirische Untersuchung der vom Endanwender wahrgenommenen Erklärbarkeit von Post-Hoc-Erklärungstypen, wobei hier lokale Erklärungstypen am besten abschneiden. Anschließend wird der Zusammenhang zwischen Verständlichkeit und Erklärbarkeit betrachtet, wobei sich eine überwiegend (mit Ausreißern) signifikante Korrelation aufzeigen lässt. Der letzte Teil der empirischen Untersuchungen widmet sich dem Einfluss von XAI-Erklärungstypen auf die kognitive Belastung und die Auswirkung dieser Belastung auf die Aufgabenleistung und -zeit des Endanwenders. Hier zeigt sich, dass lokale Erklärungstypen ebenfalls verhältnismäßig am besten abschneiden und die Korrelationen zwischen kognitiver Belastung und Aufgabenleistung sowie kognitiver Belastung und Aufgabenzeit gegeben sind. Der letzte Forschungsbeitrag fügt u. a. die Ergebnisse zusammen und leitet daraus eine Design-Theorie für XAI-basierte DSS ab. Diese Design Theorie umfasst (Meta-)Design-Anforderungen, Design-Prinzipien und Design-Merkmale in einer domänenunabhängigen und interdisziplinären Art und Weise, welche den Einbezug sowohl von Endanwendern als auch von Entwicklern als potenzielle Nutzergruppen ermöglicht.
Aus der Perspektive der IS Disziplin widmet sich diese kumulative Dissertation dem Mangel an Forschung zu Wahrnehmung und Designwissen für eine gesicherte Nutzung von XAI-basierten DSS. Damit legt sie den Grundstein für zukünftige Forschung, um ein ganzheitliches Verständnis des heuristischen Verhaltens der Endanwender während der Entscheidungsfindung zu erlangen und somit die Akzeptanz von XAI-basierten DSS in der betrieblichen Praxis zu fördern.
|
206 |
Unlocking Supply Chain Efficiency through Data-Driven Process Intelligence / Effizienzsteigerung in der Lieferkette durch datengetriebene ProzessintelligenzGreif, Toni Maik January 2024 (has links) (PDF)
The business landscape faces various challenges that have profound implications for their supply chains. These challenges include supply shortages, sustainability efforts, demographic shifts, rising transportation costs, and the disruptive impact of global crises. Media discussions are abuzz with strategies to tackle these challenges. These strategies involve shifting towards localized production, deliberately diversifying supplier networks, and reinforcing inventories for critical products. However, this dissertation explores a potential beyond these conventional approaches: the data-driven process intelligence.
Already today, leading companies are developing multi-faceted strategies that are part of data-driven process intelligence. This dissertation embarks on a comprehensive exploration of integrating emerging data-driven technologies with traditional concepts to unlock supply chain efficiencies. We present four pivotal areas, each elaborated upon in distinct chapters. Advanced technologies, including information systems, digital twins, sensor networks, and machine learning, are each harmonized with more traditional concepts such as service innovation, business value, information value, and combinatorial optimization.
The first main chapter, Service Innovation Through Collaborative Information Systems, focuses on developing a collaborative urban delivery system that seamlessly integrates participants regardless of their digital maturity. This chapter underscores the potential of collaborative information systems in bridging digital divides within supply chains, particularly for local retailers striving to attract e-commerce customers.
The second main chapter, Deriving Business Value From Digital Twins, explores the application of digital twin technology in modeling and optimizing construction site logistics. It illuminates how digital twins can elevate decision support systems and analytics dashboards, offering invaluable insights into logistics operations. The findings underscore the transformative power of digital twins in automating and enhancing visibility.
The third main chapter, Optimizing Sensor Networks Through Information
Value Analysis, addresses the pivotal issue of prioritizing investments in information technology, specifically sensor networks. An information value analysis is presented to assess the significance of accurate and timely information in augmenting supply chain efficiency. This analysis equips organizations with the ability to make informed decisions about their investments.
The fourth main chapter, Combinatorial Optimization Enriched Machine
Learning, introduces an innovative approach that harmonizes combinatorial optimization with machine learning. This approach can be applied to solve intricate and uncertain logistics challenges, e.g., the dynamic and stochastic inventory routing problem. The chapter showcases the synergy between machine learning and combinatorial optimization, emphasizing the potential of advanced algorithms and learning methods in optimizing logistics operations under dynamic conditions.
In conclusion, this dissertation offers a comprehensive perspective on how data-driven process intelligence has the potential to support supply chain management. It provides practical insights into integrating emerging technologies seamlessly with established concepts. Moreover, it underscores the significance of change management, continuous improvement, and a holistic approach in achieving enduring supply chain efficiency enhancements. By embracing these findings, organizations can confidently and competently navigate the evolving supply chain challenges. / Die Unternehmenslandschaft steht vor verschiedenen Herausforderungen, die tiefgreifende Auswirkungen auf ihre Lieferketten haben. Zu diesen Herausforderungen gehören Lieferengpässe, Bemühungen um Nachhaltigkeit, demografische Veränderungen, steigende Transportkosten und die störenden Auswirkungen globaler Krisen. In den Medien wird viel über Strategien zur Bewältigung dieser Herausforderungen diskutiert. Zu diesen Strategien gehören die Verlagerung der Produktion auf lokale Standorte, die bewusste Diversifizierung der Lieferantennetzwerke und die Aufstockung der Lagerbestände für kritische Produkte. Diese Dissertation erforscht jedoch ein Potenzial jenseits dieser konventionellen Ansätze: die datengesteuerte Prozessintelligenz.
Bereits heute entwickeln Spitzenunternehmen vielfältige Strategien, die Teil einer datengesteuerten Prozessintelligenz sind. In dieser Dissertation wird eine umfassende Untersuchung der Integration neuer datengesteuerter Technologien mit traditionellen Konzepten zur Steigerung der Lieferketteneffizienz vorgenommen. Wir stellen vier zentrale Bereiche vor, die jeweils in eigenen Kapiteln behandelt werden. Fortgeschrittene Technologien, darunter Informationssysteme, digitale Zwillinge, Sensornetzwerke und Maschinelles Lernen, werden jeweils mit traditionelleren Konzepten wie Dienstleistungsinnovation, Geschäftswert, Informationswert und Kombinatorische Optimierung in Einklang gebracht.
Das erste Hauptkapitel, Service Innovation Through Collaborative Information Systems, konzentriert sich auf die Entwicklung eines kollaborativen städtischen Liefersystems, das die Teilnehmer unabhängig von ihrem digitalen Reifegrad nahtlos integriert. Dieses Kapitel unterstreicht das Potenzial von kollaborativen Informationssystemen bei der Überbrückung digitaler Barrieren innerhalb von Lieferketten, insbesondere für lokale Einzelhändler, die E-Commerce-Kunden anziehen wollen.
Das zweite Hauptkapitel, Deriving Business Value From Digital Twins, erforscht die Anwendung der digitalen Zwillingstechnologie bei der Modellierung und Optimierung der Baustellenlogistik. Es wird beleuchtet, wie digitale Zwillinge Entscheidungsunterstützungssysteme und Analyse-Dashboards verbessern können, indem sie wertvolle Einblicke in den Logistikbetrieb bieten. Die Ergebnisse unterstreichen die transformative Fähigkeit von digitalen Zwillingen bei der Automatisierung und Verbesserung der Transparenz.
Das dritte Hauptkapitel, Optimizing Sensor Networks Through Information
Value Analysis, befasst sich mit der zentralen Frage der Priorisierung von Investitionen in die Informationstechnologie, insbesondere in Sensornetzwerke. Es wird eine Informationswertanalyse vorgestellt, um die Bedeutung genauer und rechtzeitiger Informationen für die Steigerung der Lieferketteneffizienz zu bewerten. Diese Analyse versetzt Unternehmen in die Lage, fundierte Entscheidungen über ihre Investitionen zu treffen.
Im vierten Hauptkapitel, Combinatorial Optimization Enriched Machine
Learning, wird ein innovativer Ansatz vorgestellt, der Kombinatorische Optimierung mit Maschinellem Lernen verbindet. Dieser Ansatz kann zur Lösung komplizierter und unsicherer logistischer Herausforderungen eingesetzt werden, z. B. beim dynamisches und stochastisches Bestandsverwaltungs- und Tourenplanungsproblem. Das Kapitel zeigt die Synergie zwischen Maschinellem Lernen und Kombinatorischer Optimierung und hebt das Potenzial fortschrittlicher Algorithmen und Lernmethoden bei der Optimierung logistischer Abläufe unter dynamischen Bedingungen hervor.
Abschließend bietet diese Dissertation eine umfassende Perspektive, wie datengesteuerte Prozessintelligenz das Lieferkettenmanagement unterstützen kann. Sie bietet praktische Einblicke in die nahtlose Integration neuer Technologien mit etablierten Konzepten. Darüber hinaus unterstreicht sie die Bedeutung von Veränderungsmanagement, kontinuierlicher Verbesserung und einem ganzheitlichen Ansatz, um die Effizienz der Lieferkette nachhaltig zu steigern. Durch die Berücksichtigung dieser Erkenntnisse können Unternehmen, die sich entwickelnden Herausforderungen in der Lieferkette sicher und kompetent bewältigen.
|
207 |
Marketing in der PostmoderneLöbler, Helge 22 May 2017 (has links) (PDF)
Das Marketing befindet sich in einem fundamentalen Umbruch. Es entwickelt sich von einem modernen Verständnis zu einer postmodernen Arena. Wer das postmoderne Marketing nicht versteht und nicht anwendet, wird definitiv ins Hintertreffen geraten. Dies zeigt sich bereits heute, da manche Unternehmen sehr erfolgreich in das postmoderne Marketing eingetreten sind. Wodurch zeichnet sich nun das postmoderne Marketing aus?
|
208 |
Diversifikationserfolge und -risiken bei unterschiedlichen Marktstrukturen und WettbewerbLöbler, Helge 22 May 2017 (has links) (PDF)
"Diversification ist an attractive option for many companies, and is probably one of the most influential ideas affecting American corporate strategy today". Daß diese Äußerung auch für viele bundesdeutsche Unternehmen gilt, zeigen beispielsweise die Diversifikationen der Daimler Benz aG, der VW AG, der Mannesmann AG und andere mehr. Leider sind nicht alle durchgeführten Diversifikationen mit Erfolg verbunden und es stellen sich z. B. folgende Fragen: Wie können Diversifikationsanstrengungen zum Erfolg geführt werden? Welche Faktoren müssen beachtet werden, wenn in einen neuen Markt diversifiziert werden soll? Welches sind die kritischen Erfolgsfaktoren? Mit welchen Risiken ist im schlimmsten Fall zu rechnen?
|
209 |
Preiswirkungen horizontaler UnternehmenszusammenschlüsseLöbler, Helge 10 February 2017 (has links) (PDF)
Die Analyse hatte zum Ziel zu überprüfen, wie sich die optimalen Preise in einem inhomogenen Mehrproduktoligopol durch einen Zusammenschluß verändern. Es konnte gezeigt werden, daß sich nach einem Zusammenschluß von zwei Unternehmen die optimalen Preise aller Güter auf diesem Markt unter linearen Bedingungen erhöhen. Bei einem Zusammenschluß mit zentraler Leitung und einer Beteiligung von unter 100 % mußte eine Untergrenze für die Beteiligungshöhe vorausgesetzt werden, da sich sonst keine optimalen Preise berechnen lassen. Für nicht lineare Kosten- oder Preis-Absatz-Funktionen wurden keine Aussagen abgeleitet. Ferner wurden weder Synergien noch Kostenreduktionen durch Skalenerträge angenommen. Weitere Untersuchungen müssen klären, ob bei Synergien oder Kostenreduktionen ähnliche oder andere Preiswirkungen auftreten.
|
210 |
Wissens- und Nachhaltigkeitsmanagement durch Kooperationen in WeiterbildungsprojektenFischer, Helge, Heinz, Matthias, Köhler, Thomas 26 October 2015 (has links) (PDF)
Im Rahmen der wachsenden Informationsflut hat sich die These durchgesetzt, dass es nicht wichtig ist, Wissen vorrätig zu haben, sondern dass man wissen sollte, woher man dieses bekommen kann. Eine potenzielle Quelle neuen Wissens sind Kooperationen. Kooperation als ein Teil des Wissensmanagement respektive Wissenskooperationen als zentrale Grundlage für erfolgreiches Wissensmanagement unterstützen die Akquise und Bündelung von Wissensressourcen. Wertschöpfungsprozesse verändern sich dahingehend, dass ein Gesamtprodukt das Ergebnis von Teilleistungen ist, die durch Kooperationen erzielt werden. Geschehen diese Kooperationen systematisch, so bilden sie eine Basis für das Wissensmanagementund dienen der der regionalen Strukturentwicklung.
|
Page generated in 0.1887 seconds