251 |
Die Gemeinde und ihr Verhältnis zur Welt nach dem Johannesevangelium: eine exegetische Studie zur narrativen Ekklesiologie im Johannesevangelium / The church in its relationship to the world according to the Gospel of John: an exegetical study on the narrative ecclesiology in the Gospel of JohnLanket, Jakob 02 1900 (has links)
Text in German / Die vorliegende Forschungsarbeit geht der Frage nach, ob und wie im JohEv ein ekklesiologisches Konzept präsentiert wird. Dazu gehört auch die Wahrnehmung der Strategie, mit der das JohEv sein Konzept von Gemeinde darzustellen bzw. seinen Adressaten zu vermitteln beabsichtigt.
Der Aufbau dieser Untersuchung ist der narrativen Struktur und Charakteristik des JohEv angelehnt. Mithilfe der Zusammenstellung und Anwendung eines narrativen Analyseverfahrens wird das JohEv als literarisches Werk wahrgenommen.
Dies führt zunächst zur Bestimmung des Leitthemas des JohEv: Gottes Offenbarung in dem von ihm gesandten Sohn, Jesus. Darauf aufbauend wird herausgearbeitet, wie die Reaktionen auf dieses Offenbarungsgeschehen gemäß des JohEv ausfallen. Anhand dieser Ergebnisse lässt sich feststellen, was Gemeinde und Welt wesensmässg kennzeichnet und was ihr Verhältnis zu einander ausmacht.
Ferner zielt die Forschungsarbeit darauf ab, die gewonnenen Untersuchungsergebnisse – über ihre wissenschaftlich-theoretische Dimension hinaus – auf ihren möglichen Nutzen für die gegenwärtige Gemeindearbeit hin zu beleuchten. / New Testament / M. Th. (New Testament)
|
252 |
Multiskalen-Ansatz zur Vorhersage der anisotropen mechanischen Eigenschaften von Metall-Schaumstoff-VerbundelementenGahlen, Patrick 21 September 2023 (has links)
Metall-Schaumstoff-Verbundelemente werden aufgrund ihrer sehr guten Flammschutzwirkung, selbsttragenden Eigenschaften bei geringem Gewicht und der kostengünstigen Montagemöglichkeit zunehmend in der Baubranche zur effizienten Wärmedämmung eingesetzt. Die Verbundelemente bestehen aus zwei flächigen, linierten oder profilierten, außen liegenden metallischen Deckschichten geringer Dicke, in denen der Zwischenraum (Kernschicht) mit einer wärmedämmenden Hartschaumschicht aus z. B. Polyisocyanurat ausgefüllt ist. Bedingt durch den (kontinuierlichen) Fertigungsprozess entstehen im Schaumkern material- und strukturbedingte Inhomogenitäten, wodurch dessen Materialeigenschaften über der Schaumdicke variieren. Diese Inhomogenitäten können die mechanischen Eigenschaften der Verbundelemente negativ beeinflussen und zu einem frühzeitigen Versagen führen. Aus diesem Grund ist das Verständnis bzw. die Berücksichtigung der lokalen Effekte im Schaum sowohl für die Auslegung der Verbundelemente als auch zur Schöpfung möglicher Potenziale zur Verbesserung der Produktqualität essenziell. Da die Betrachtung der lokalen Einflussfaktoren experimentell und analytisch nur begrenzt isoliert möglich ist, wird in dieser Arbeit ein numerischer Multiskalen-Ansatz unter Verwendung der Finite-Elemente-Methode vorgestellt, welcher in der Lage ist, die mechanischen Eigenschaften der lokalen mesoskaligen Schaumstrukturen mittels Homogenisierung in einem makroskaligen Simulationsmodell eines kompletten Verbundelementes zu berücksichtigen.
Für die Validierung und Bewertung des Modells werden kommerziell erhältliche Verbundelemente verwendet. Im ersten Schritt werden die lokalen (höhenaufgelösten) Schaumeigenschaften dieser Verbundelemente experimentell charakterisiert. Besonderes Augenmerk liegt auf der Analyse des Schaumbasismaterials und der Zellstruktur. Basierend auf den experimentellen Daten wird ein mesoskaliges Simulationsmodell eines Repräsentativen Volumenelements erstellt und validiert, welches eine Vorhersage der mechanischen Eigenschaften anisotroper Schaumstrukturen mit unterschiedlichen Aspektverhältnissen und Orientierungen der individuellen Zellen auf Basis definierter Ellipsoidpackungen und einer anisotropen Mosaik-Methode ermöglicht. Neben der Vorhersage der lokalen Schaumeigenschaften bietet das mesoskalige Modell die Möglichkeit, Auswirkungen einzelner Einflussfaktoren auf die Schaumeigenschaften isoliert zu betrachten. Ein Vergleich zwischen experimentellen und numerischen Ergebnissen aus einem zuvor definierten Bereich zeigt, dass sowohl im Experiment, als auch in der mesoskaligen Simulation die Strukturen ein stark anisotropes Verhalten aufweisen, wobei der Grad der Anisotropie in der Simulation tendenziell leicht unterschätzt wird. Trotz kleiner Abweichungen stimmen die Simulationsergebnisse gut mit den experimentellen Daten überein. Demnach ist das mesoskalige Simulationsmodell geeignet, um die lokalen, anisotropen mechanischen Schaumeigenschaften nachzubilden.
Darauf aufbauend werden die lokalen Materialeigenschaften eines ausgewählten Verbundelementes numerisch bestimmt und auf das makroskopische Modell übertragen. Im Zuge dessen werden sowohl geeignete Methoden zur Implementierung der Schaumeigenschaften vorgestellt, als auch eine Sensitivitätsanalyse zum Einfluss der Auflösung der lokalen mesoskaligen Schaumstruktur auf die makroskopischen Eigenschaften der Verbundelemente durchgeführt. Die Qualität des makroskopischen Simulationsmodells wird über den Vergleich der simulativen Ergebnisse mit bauteil-typischen Messungen analysiert. Vergleichbar zur mesoskaligen Validierung können die makroskaligen Bauteileigenschaften mit kleineren Abweichungen gut wiedergegeben werden. Voraussetzung ist jedoch, dass die im Vergleich zur (nahezu) homogenen Schaum-Kernschicht äußeren, inhomogenen Randschichten separat modelliert werden. Diese Erkenntnisse lassen sich auch auf andere Verbundelemente mit unterschiedlichen Dicken übertragen, da aus den experimentellen Untersuchungen bekannt ist, dass die Verbundelemente qualitativ vergleichbare Eigenschaftsverteilungen aufweisen.
Aufgrund des hohen Rechen- und Modellierungsaufwands wird abschließend bewertet, inwiefern die komplexen mesomechanischen Eigenschaften anisotroper Schaumstrukturen in zukünftigen Multiskalen-Simulationen effizienter berücksichtigt werden können. Hierzu wird ein Künstliches Neuronales Netz verwendet, wobei der Fokus aufgrund der benötigten Dauer zur Erstellung einer geeigneten Datenbasis auf der Vorhersage des orthotropen Steifigkeitstensors liegt. Die Ergebnisse zeigen, dass bei einer geeigneten Netzwerkstruktur und einer ausreichenden Datenbasis die mechanischen Eigenschaften komplexer Zellstrukturen mittels eines Neuronalen Netzes innerhalb von Sekunden sehr gut reproduziert werden können. In einer abschließenden Studie wird der Einfluss der Datenbankgröße auf die Vorhersagegenauigkeit untersucht. Es kann festgestellt werden, dass mindestens 500 Trainingsdatenpunkte erforderlich sind, um eine ausreichende Genauigkeit zu erreichen. / Metal-foam composite elements are used increasingly for efficient thermal insulation in the construction industry due to their very good flame-retardancy, self-supporting properties combined with low weight, and low-cost assembly options. The composite elements consist of two thin, flat, lined, or profiled external metallic cover layers, in which the interspace (core layer) is filled with a thermally insulating low-density layer of rigid foam, e.g. polyisocyanurate. Due to the (continuous) manufacturing process, material- and structure-related inhomogeneities occur in the foam core, causing its material properties to vary over the core thickness. These inhomogeneities can negatively affect the mechanical properties of the composite elements and lead to premature failure. For this reason, understanding and considering the local effects is essential both for the design of the composite elements and for creating possible potentials to improve the product quality. Since the consideration of local influencing factors is limited experimentally and analytically in isolation, this work presents a numerical multiscale approach using the finite element method, which can consider the mechanical properties of the local mesoscale foam structures using homogenization in a macroscale simulation model of a complete composite element.
For the validation and evaluation of the model, commercially available composite elements are used. In a first step, the local (height-resolved) foam properties of these composite elements are characterized experimentally. Particular attention is paid to the analysis of foam base material, foam density, and cell structure. Based on the experimental data, a mesoscale simulation model of a representative volume element is created and validated, which allows a prediction of mechanical properties of anisotropic foam structures with different aspect ratios and orientations of the individual cells based on defined ellipsoid packings and an anisotropic tessellation method. In addition to predicting local foam properties, this mesoscale model offers the possibility to consider effects of individual influencing factors on foam performance in isolation. A comparison between experimental and numerical results from a previously defined area shows that in both the experiment and the mesoscale simulation, the structures exhibit strongly anisotropic behavior, although the degree of anisotropy tends to be slightly underestimated in the simulation. Despite small deviations, simulation results agree well with experimental data. Accordingly, this mesoscale simulation model is suitable to reproduce local anisotropic mechanical foam properties.
Based on this, local material properties of a selected composite element are determined numerically and transferred to the macroscopic model. In the course of this, suitable methods for implementing foam properties are presented as well as a sensitivity analysis on the influence of resolution of the local mesoscale foam structure on macroscopic properties of composite elements. The quality of the macroscopic simulation model is again analyzed via a comparison of simulative results with component-typical measurements. Comparable to the mesoscale validation, macroscale component properties can be reproduced well with minor deviations. A prerequisite, however, is that outer, inhomogeneous layers are modeled separately compared to (nearly) homogeneous foam core layer. These findings can also be applied to other composite elements with different thicknesses since it is known from experimental investigations that composite elements exhibit qualitatively comparable property distributions.
Finally, due to the high computational and modeling effort, it is evaluated to what extent the complex mesomechanical properties of anisotropic foam structures can be considered more efficiently in future multiscale simulations. For this purpose, an Artificial Neural Network is used, focusing on the prediction of orthotropic stiffness tensor due to the required duration to generate a suitable database. Results from this study show that with a suitable network structure and a sufficient database, the mechanical properties of complex foam structures can be reproduced very well via the Artificial Neural Network within seconds. In a final study, the effect of the database size on the prediction accuracy was examined. It could be observed that at least 500 training datapoints are required to obtain sufficient accuracy.
|
253 |
Dimension Flexible and Adaptive Statistical LearningKhowaja, Kainat 02 March 2023 (has links)
Als interdisziplinäre Forschung verbindet diese Arbeit statistisches Lernen mit aktuellen fortschrittlichen Methoden, um mit hochdimensionalität und Nichtstationarität umzugehen. Kapitel 2 stellt Werkzeuge zur Verfügung, um statistische Schlüsse auf die Parameterfunktionen von Generalized Random Forests zu ziehen, die als Lösung der lokalen Momentenbedingung identifiziert wurden. Dies geschieht entweder durch die hochdimensionale Gaußsche Approximationstheorie oder durch Multiplier-Bootstrap. Die theoretischen Aspekte dieser beiden Ansätze werden neben umfangreichen Simulationen und realen Anwendungen im Detail diskutiert. In Kapitel 3 wird der lokal parametrische Ansatz auf zeitvariable Poisson-Prozesse ausgeweitet, um ein Instrument zur Ermittlung von Homogenitätsintervallen innerhalb der Zeitreihen von Zähldaten in einem nichtstationären Umfeld bereitzustellen. Die Methodik beinhaltet rekursive Likelihood-Ratio-Tests und hat ein Maximum in der Teststatistik mit unbekannter Verteilung. Um sie zu approximieren und den kritischen Wert zu finden, verwenden wir den Multiplier-Bootstrap und demonstrieren den Nutzen dieses Algorithmus für deutsche M\&A Daten. Kapitel 4 befasst sich mit der Erstellung einer niedrigdimensionalen Approximation von hochdimensionalen Daten aus dynamischen Systemen. Mithilfe der Resampling-Methoden, der Hauptkomponentenanalyse und Interpolationstechniken konstruieren wir reduzierte dimensionale Ersatzmodelle, die im Vergleich zu den ursprünglichen hochauflösenden Modellen schnellere Ausgaben liefern. In Kapitel 5 versuchen wir, die Verteilungsmerkmale von Kryptowährungen mit den von ihnen zugrunde liegenden Mechanismen zu verknüpfen. Wir verwenden charakteristikbasiertes spektrales Clustering, um Kryptowährungen mit ähnlichem Verhalten in Bezug auf Preis, Blockzeit und Blockgröße zu clustern, und untersuchen diese Cluster, um gemeinsame Mechanismen zwischen verschiedenen Krypto-Clustern zu finden. / As an interdisciplinary research, this thesis couples statistical learning with current advanced methods to deal with high dimensionality and nonstationarity. Chapter 2 provides tools to make statistical inference (uniformly over covariate space) on the parameter functions from Generalized Random Forests identified as the solution of the local moment condition. This is done by either highdimensional Gaussian approximation theorem or via multiplier bootstrap. The theoretical aspects of both of these approaches are discussed in detail alongside extensive simulations and real life applications. In Chapter 3, we extend the local parametric approach to time varying Poisson processes, providing a tool to find intervals of homogeneity within the time series of count data in a nonstationary setting. The methodology involves recursive likelihood ratio tests and has a maxima in test statistic with unknown distribution. To approximate it and find the critical value, we use multiplier bootstrap and demonstrate the utility of this algorithm on German M\&A data. Chapter 4 is concerned with creating low dimensional approximation of high dimensional data from dynamical systems. Using various resampling methods, Principle Component Analysis, and interpolation techniques, we construct reduced dimensional surrogate models that provide faster responses as compared to the original high fidelity models. In Chapter 5, we aim to link the distributional characteristics of cryptocurrencies to their underlying mechanism. We use characteristic based spectral clustering to cluster cryptos with similar behaviour in terms of price, block time, and block size, and scrutinize these clusters to find common mechanisms between various crypto clusters.
|
254 |
Vorstellungen von Lehramtsstudierenden zur DigitalisierungHulsch, Christian 27 August 2024 (has links)
Digitalisierung ist ein aktuelles Thema in der Schule und der Ausbildung von Lehrerinnen und Lehrern. Dementsprechend zahlreich sind die Modelle von Medienwissenschaftlern, der Kultusministerkonferenz des Bundes, Hochschulen und deutschen, europäischen bzw. internationalen Vereinigungen, welche der Ausbildung zugrunde liegen. Die Arbeit untersucht die zur Anwendung der Methode der Didaktischen Rekonstruktion für die didaktische Strukturierung des Unterrichts zur Digitalisierung notwendigen Grundlagen, wie einerseits Vorstellungen von Lehramtsstudierenden und andererseits die fachliche Klärung sowie die Klärung gesellschaftlicher Ansprüche an die Fächer, welche Digitalisierung vermitteln bzw. diese zur Vermittlung der Fachinhalte verwenden. Zur inhaltlichen Aufbereitung des Begriffes der Digitalisierung wird der Mehrperspektivische Ansatz der Technikdidaktik verwendet.:1 Einleitung
2 Stand der Forschung zu Lehrkräftevorstellungen
3 Digitalisierung – Inhalt und Ansprüche an die Lehrkräftebildung
4 Forschungsdesign zu Vorstellungen von Digitalisierung bei Lehramtsstudierenden
5 Ergebnisse der Untersuchung
6 Schlussfolgerungen und Ausblick
7 Anhang
8 Ergänzende Themen aus Randgebieten der Digitalisierung
9 Abbildungsverzeichnis
10 Tabellenverzeichnis
11 Literaturverzeichnis
|
255 |
Learning Mathematics through Scientific Contents and MethodsBeckmann, Astrid 12 April 2012 (has links) (PDF)
The basic idea of this paper is to outline a cross-curricular approach between mathematics and science. The aim is to close the often perceived gap between formal maths and authentic experience and to
increase the students’ versatility in the use of mathematical terms. Students are to experience maths as logical, interesting and relevant through extra-mathematical references. Concrete physical or biological correlations may initiate mathematical activities, and mathematical terms are to be understood in logical contexts. Examples: physical experiments can lead to a comprehensive understanding of the concept of functions and of the intersection of medians in triangles. Biological topics can lead to the concepts of similarity and proportion as well as to the construction of pie charts. In the European ScienceMath Project a variety of teaching modules was developed and tested in secondary schools.
|
256 |
The Incremental Scheme - From Method Development to Applications in ChemistryFiedler, Benjamin 15 October 2020 (has links)
In this thesis, several development steps for the incremental method are presented. At first, the extension of the incremental scheme to other quantities than the energy is advanced in terms of molecular dipole moments. In this context, a revised error correction as well as the template localization for the treatment of aromatic systems are introduced. As a second enhancement, a new implementation of the template localization ensures a higher stability of this algorithm step and, thus, of the incremental scheme. Finally, pair natural orbitals (PNOs) are utilized in the incremental method with the aim of an increased efficiency. The PNO approach is re-assessed in context of the incremental expansion leading to both small incremental and PNO local errors for reaction, intermolecular interaction and cluster binding energies. The higher efficiency due to the twofold reduction of the computational efforts by the PNO and the incremental approaches is demonstrated for molecular clusters. Additionally, the complete basis set (CBS) limit is targetted by using the efficient MP2-based focal-point approach to the incremental scheme (with and without PNOs).
Finally, based on these improvements of the performance, the PNO-based incremental scheme is applied to support a computational study regarding the modelling of the reaction mechanism for the base-catalyzed twin polymerization.
|
257 |
Learning Mathematics through Scientific Contents and MethodsBeckmann, Astrid 12 April 2012 (has links)
The basic idea of this paper is to outline a cross-curricular approach between mathematics and science. The aim is to close the often perceived gap between formal maths and authentic experience and to
increase the students’ versatility in the use of mathematical terms. Students are to experience maths as logical, interesting and relevant through extra-mathematical references. Concrete physical or biological correlations may initiate mathematical activities, and mathematical terms are to be understood in logical contexts. Examples: physical experiments can lead to a comprehensive understanding of the concept of functions and of the intersection of medians in triangles. Biological topics can lead to the concepts of similarity and proportion as well as to the construction of pie charts. In the European ScienceMath Project a variety of teaching modules was developed and tested in secondary schools.
|
258 |
Modelling Financial and Social NetworksKlochkov, Yegor 04 October 2019 (has links)
In dieser Arbeit untersuchen wir einige Möglichkeiten, financial und soziale Netzwerke zu analysieren, ein Thema, das in letzter Zeit in der ökonometrischen Literatur große Beachtung gefunden hat.
Kapitel 2 untersucht den Risiko-Spillover-Effekt über das in White et al. (2015) eingeführte multivariate bedingtes autoregressives Value-at-Risk-Modell. Wir sind an der Anwendung auf nicht stationäre Zeitreihen interessiert und entwickeln einen sequentiellen statistischen Test, welcher das größte verfügbare Homogenitätsintervall auswählt. Unser Ansatz basiert auf der Changepoint-Teststatistik und wir verwenden einen neuartigen Multiplier Bootstrap Ansatz zur Bewertung der kritischen Werte.
In Kapitel 3 konzentrieren wir uns auf soziale Netzwerke. Wir modellieren Interaktionen zwischen Benutzern durch ein Vektor-Autoregressivmodell, das Zhu et al. (2017) folgt. Um für die hohe Dimensionalität kontrollieren, betrachten wir ein Netzwerk, das einerseits von Influencers und Andererseits von Communities gesteuert wird, was uns hilft, den autoregressiven Operator selbst dann abzuschätzen, wenn die Anzahl der aktiven Parameter kleiner als die Stichprobegröße ist.
Kapitel 4 befasst sich mit technischen Tools für die Schätzung des Kovarianzmatrix und Kreuzkovarianzmatrix. Wir entwickeln eine neue Version von der Hanson-Wright- Ungleichung für einen Zufallsvektor mit subgaußschen Komponenten. Ausgehend von unseren Ergebnissen zeigen wir eine Version der dimensionslosen Bernstein-Ungleichung, die für Zufallsmatrizen mit einer subexponentiellen Spektralnorm gilt. Wir wenden diese Ungleichung auf das Problem der Schätzung der Kovarianzmatrix mit fehlenden Beobachtungen an und beweisen eine verbesserte Version des früheren Ergebnisses von (Lounici 2014). / In this work we explore some ways of studying financial and social networks, a topic that has recently received tremendous amount of attention in the Econometric literature.
Chapter 2 studies risk spillover effect via Multivariate Conditional Autoregressive Value at Risk model introduced in White et al. (2015). We are particularly interested in application to non-stationary time series and develop a sequential test procedure that chooses the largest available interval of homogeneity. Our approach is based on change point test statistics and we use a novel Multiplier Bootstrap approach for the evaluation of critical values.
In Chapter 3 we aim at social networks. We model interactions between users through a vector autoregressive model, following Zhu et al. (2017). To cope with high dimensionality we consider a network that is driven by influencers on one side, and communities on the other, which helps us to estimate the autoregressive operator even when the number of active parameters is smaller than the sample size.
Chapter 4 is devoted to technical tools related to covariance cross-covariance estimation. We derive uniform versions of the Hanson-Wright inequality for a random vector with independent subgaussian components. The core technique is based on the entropy method combined with truncations of both gradients of functions of interest and of the coordinates itself. We provide several applications of our techniques: we establish a version of the standard Hanson-Wright inequality, which is tighter in some regimes. Extending our results we show a version of the dimension-free matrix Bernstein inequality that holds for random matrices with a subexponential spectral norm. We apply the derived inequality to the problem of covariance estimation with missing observations and prove an improved high probability version of the recent result of Lounici (2014).
|
259 |
Field Theoretic Lagrangian From Off-shell Supermultiplet Gauge QuotientsKatona, Gregory 01 January 2013 (has links)
Recent efforts to classify off-shell representations of supersymmetry without a central charge have focused upon directed, supermultiplet graphs of hypercubic topology known as Adinkras. These encodings of Super Poincare algebras, depict every generator of a chosen supersymmetry as a node-pair transformtion between fermionic bosonic component fields. This research thesis is a culmination of investigating novel diagrammatic sums of gauge-quotients by supersymmetric images of other Adinkras, and the correlated building of field theoretic worldline Lagrangians to accommodate both classical and quantum venues. We find Ref [40], that such gauge quotients do not yield other stand alone or "proper" Adinkras as afore sighted, nor can they be decomposed into supermultiplet sums, but are rather a connected "Adinkraic network". Their iteration, analogous to Weyl's construction for producing all finite-dimensional unitary representations in Lie algebras, sets off chains of algebraic paradigms in discrete-graph and continuous-field variables, the links of which feature distinct, supersymmetric Lagrangian templates. Collectively, these Adiankraic series air new symbolic genera for equation to phase moments in Feynman path integrals. Guided in this light, we proceed by constructing Lagrangians actions for the N = 3 supermultiplet YI /(iDI X) for I = 1, 2, 3, where YI and X are standard, Salam-Strathdee superfields: YI fermionic and X bosonic. The system, bilinear in the component fields exhibits a total of thirteen free parameters, seven of which specify Zeeman-like coupling to external background (magnetic) fluxes. All but special subsets of this parameter space describe aperiodic oscillatory responses, some of which are found to be surprisingly controlled by the golden ratio, [phi] = 1.61803, Ref [52]. It is further determined that these Lagrangians allow an N = 3 - > 4 supersymmetric extension to the Chiral-Chiral and Chiral-twistedChiral multiplet, while a subset admits two inequivalent such extensions. In a natural proiii gression, a continuum of observably and usefully inequivalent, finite-dimensional off-shell representations of worldline N = 4 extended supersymmetry are explored, that are variate from one another but in the value of a tuning parameter, Ref [53]. Their dynamics turns out to be nontrivial already when restricting to just bilinear Lagrangians. In particular, we find a 34-parameter family of bilinear Lagrangians that couple two differently tuned supermultiplets to each other and to external magnetic fluxes, where the explicit parameter dependence is unremovable by any field redefinition and is therefore observable. This offers the evaluation of X-phase sensitive, off-shell path integrals with promising correlations to group product decompositions and to deriving source emergences of higher-order background flux-forms on 2-dimensional manifolds, the stacks of which comprise space-time volumes. Application to nonlinear sigma models would naturally follow, having potential use in M- and F- string theories.
|
260 |
Supply Chain Event Management – Bedarf, Systemarchitektur und Nutzen aus Perspektive fokaler Unternehmen der ModeindustrieTröger, Ralph 10 November 2014 (has links) (PDF)
Supply Chain Event Management (SCEM) bezeichnet eine Teildisziplin des Supply Chain Management und ist für Unternehmen ein Ansatzpunkt, durch frühzeitige Reaktion auf kritische Ausnahmeereignisse in der Wertschöpfungskette Logistikleistung und -kosten zu optimieren.
Durch Rahmenbedingungen wie bspw. globale Logistikstrukturen, eine hohe Artikelvielfalt und volatile Geschäftsbeziehungen zählt die Modeindustrie zu den Branchen, die für kritische Störereignisse besonders anfällig ist. In diesem Sinne untersucht die vorliegende Dissertation nach einer Beleuchtung der wesentlichen Grundlagen zunächst, inwiefern es in der Modeindustrie tatsächlich einen Bedarf an SCEM-Systemen gibt.
Anknüpfend daran zeigt sie nach einer Darstellung bisheriger SCEM-Architekturkonzepte Gestaltungsmöglichkeiten für eine Systemarchitektur auf, die auf den Designprinzipien der Serviceorientierung beruht. In diesem Rahmen erfolgt u. a. auch die Identifikation SCEM-relevanter Business Services. Die Vorzüge einer serviceorientierten Gestaltung werden detailliert anhand der EPCIS (EPC Information Services)-Spezifikation illustriert.
Abgerundet wird die Arbeit durch eine Betrachtung der Nutzenpotenziale von SCEM-Systemen. Nach einer Darstellung von Ansätzen, welche zur Nutzenbestimmung infrage kommen, wird der Nutzen anhand eines Praxisbeispiels aufgezeigt und fließt zusammen mit den Ergebnissen einer Literaturrecherche in eine Konsolidierung von SCEM-Nutzeffekten. Hierbei wird auch beleuchtet, welche zusätzlichen Vorteile sich für Unternehmen durch eine serviceorientierte Architekturgestaltung bieten.
In der Schlussbetrachtung werden die wesentlichen Erkenntnisse der Arbeit zusammengefasst und in einem Ausblick sowohl beleuchtet, welche Relevanz die Ergebnisse der Arbeit für die Bewältigung künftiger Herausforderungen innehaben als auch welche Anknüpfungspunkte sich für anschließende Forschungsarbeiten ergeben.
|
Page generated in 0.0395 seconds