Spelling suggestions: "subject:"metamodel."" "subject:"metamodels.""
21 |
KtSpoon: Modelling Kotlin by extending Spoon’s Java Metamodel / KtSpoon: Modellering av Kotlin genom att utöka Spoons metamodell av JavaLundholm, Jesper January 2021 (has links)
Kotlin is a relatively new language that has received much attention since its first stable release in February 2016. Despite the fast growth of the language, there is a lack of libraries to provide an intuitive, typed abstract syntax tree (AST). Recognizing the utility of user-friendly ASTs with support for various analysis and transformation tasks, we make a first contribution towards bringing one for Kotlin with KtSpoon. Kotlin’s interoperability capabilities with Java enables exploitation of Java’s mature echo system and we propose the use of the Spoon library with its Java metamodel as a base for a model of Kotlin. We show the feasibility of this approach with KtSpoon, which is implemented through small additions to the Spoon metamodel. It consists of a tree builder that outputs a Spoon AST from Kotlin source code and a pretty-printer that prints it back to source code. Through an empirical study, we find out that KtSpoon accurately can represent the full Kotlin language. We conclude that while it is possible to model the Kotlin language with small modifications to the Spoon metamodel, it will likely require a partial reimplementation for it to be an intuitive model for developers. / Kotlin är ett relativt nytt språk som har fått mycket uppmärksamhet sedan dess första stabila version släpptes i Februari 2016. Trots att språket vuxit snabbt så saknar det fortfarande ett bibliotek som tillhandahåller ett intuitivt och typat abstrakt syntaxträd (AST). Nyttan av användarvänliga abstrakta syntaxträd motiverar oss att ta ett första steg mot att skapa ett sådant för Kotlin med KtSpoon. Kotlins interoperabilitet med Java möjliggör nyttjandet av Javas omfattande ekosystem och vi föreslår därför användandet av biblioteket Spoon och dess metamodell av Java som grund för en modell av Kotlin. Genom skapandet av KtSpoon visar vi att det är möjligt att modellera kod skriven i Kotlin med små tillägg i Spoons metamodell. KtSpoon består av en trädbyggare som skapar ett AST från källkod skriven i Kotlin samt en skrivare som skriver tillbaka det till källkod. Genom en empirisk studie finner vi att det är möjligt att modellera hela språket Kotlin med små förändringar av Spoons metamodell, men att det sannolikt krävs en ny implementation av modellen för att den ska vara intuitiv för utvecklare att använda sig av.
|
22 |
Modell und Optimierungsansatz für Open Source SoftwareentwicklungsprozesseDietze, Stefan January 2004 (has links)
Gerade in den letzten Jahren erfuhr Open Source Software (OSS) eine zunehmende Verbreitung und Popularität und hat sich in verschiedenen Anwendungsdomänen etabliert. Die Prozesse, welche sich im Kontext der OSS-Entwicklung (auch: OSSD – Open Source Software-Development) evolutionär herausgebildet haben, weisen in den verschiedenen OSS-Entwicklungsprojekten z.T. ähnliche Eigenschaften und Strukturen auf und auch die involvierten Entitäten, wie z.B. Artefakte, Rollen oder Software-Werkzeuge sind weitgehend miteinander vergleichbar.
Dies motiviert den Gedanken, ein verallgemeinerbares Modell zu entwickeln, welches die generalisierbaren Entwicklungsprozesse im Kontext von OSS zu einem übertragbaren Modell abstrahiert. Auch in der Wissenschaftsdisziplin des Software Engineering (SE) wurde bereits erkannt, dass sich der OSSD-Ansatz in verschiedenen Aspekten erheblich von klassischen (proprietären) Modellen des SE unterscheidet und daher diese Methoden einer eigenen wissenschaftlichen Betrachtung bedürfen.
In verschiedenen Publikationen wurden zwar bereits einzelne Aspekte der OSS-Entwicklung analysiert und Theorien über die zugrundeliegenden Entwicklungsmethoden formuliert, aber es existiert noch keine umfassende Beschreibung der typischen Prozesse der OSSD-Methodik, die auf einer empirischen Untersuchung existierender OSS-Entwicklungsprojekte basiert. Da dies eine Voraussetzung für die weitere wissenschaftliche Auseinandersetzung mit OSSD-Prozessen darstellt, wird im Rahmen dieser Arbeit auf der Basis vergleichender Fallstudien ein deskriptives Modell der OSSD-Prozesse hergeleitet und mit Modellierungselementen der UML formalisiert beschrieben. Das Modell generalisiert die identifizierten Prozesse, Prozessentitäten und Software-Infrastrukturen der untersuchten OSSD-Projekte. Es basiert auf einem eigens entwickelten Metamodell, welches die zu analysierenden Entitäten identifiziert und die Modellierungssichten und -elemente beschreibt, die zur UML-basierten Beschreibung der Entwicklungsprozesse verwendet werden.
In einem weiteren Arbeitsschritt wird eine weiterführende Analyse des identifizierten Modells durchgeführt, um Implikationen, und Optimierungspotentiale aufzuzeigen. Diese umfassen beispielsweise die ungenügende Plan- und Terminierbarkeit von Prozessen oder die beobachtete Tendenz von OSSD-Akteuren, verschiedene Aktivitäten mit unterschiedlicher Intensität entsprechend der subjektiv wahrgenommenen Anreize auszuüben, was zur Vernachlässigung einiger Prozesse führt.
Anschließend werden Optimierungszielstellungen dargestellt, die diese Unzulänglichkeiten adressieren, und ein Optimierungsansatz zur Verbesserung des OSSD-Modells wird beschrieben. Dieser Ansatz umfasst die Erweiterung der identifizierten Rollen, die Einführung neuer oder die Erweiterung bereits identifizierter Prozesse und die Modifikation oder Erweiterung der Artefakte des generalisierten OSS-Entwicklungsmodells. Die vorgestellten Modellerweiterungen dienen vor allem einer gesteigerten Qualitätssicherung und der Kompensation von vernachlässigten Prozessen, um sowohl die entwickelte Software- als auch die Prozessqualität im OSSD-Kontext zu verbessern.
Desweiteren werden Softwarefunktionalitäten beschrieben, welche die identifizierte bestehende Software-Infrastruktur erweitern und eine gesamtheitlichere, softwaretechnische Unterstützung der OSSD-Prozesse ermöglichen sollen. Abschließend werden verschiedene Anwendungsszenarien der Methoden des OSS-Entwicklungsmodells, u.a. auch im kommerziellen SE, identifiziert und ein Implementierungsansatz basierend auf der OSS GENESIS vorgestellt, der zur Implementierung und Unterstützung des OSSD-Modells verwendet werden kann. / In recent years Open Source Software (OSS) has become more widespread and its popularity has grown so that it is now established in various application domains. The processes which have emerged evolutionarily within the context of OSS development (OSSD – Open Source Software Development) display, to some extent, similar properties and structures in the various OSSD projects. The involved entities, e.g., artifacts, roles or software tools, are also widely comparable.
This leads to the idea of developing a generalizable model which abstracts the generalizable development processes within the context of OSS to a transferable model. Even the scientific discipline of Software Engineering (SE) has recognized that the OSSD approach is, in various aspects, considerably different from traditional (proprietary) models of SE, and that these methods therefore require their own scientific consideration.
Numerous publications have already analyzed individual aspects of OSSD and formulated theories about the fundamental development methods, but to date there is still no comprehensive description of the typical processes of OSSD methodology based on an empirical study of existing OSSD projects. Since this is a precondition for the further scientific examination of OSSD processes, a descriptive model of OSSD processes is obtained on the basis of comparative case studies and described in a formalized manner with UML modeling elements within the context of this dissertation. The model generalizes the identified processes, process entities and software infrastructures of the analyzed OSSD projects. It is based on a specially developed meta model which identifies the entities to be analyzed and describes the modeling viewpoints and elements which are used for the UML-based description of the development processes.
Another procedure step includes the further analysis of the identified model in order to display the implications, and the potential for optimization. For example, these encompass the insufficient planning and scheduling capability of processes or the observed tendency of OSSD actors to carry out various activities at different intensities depending on the subjectively perceived incentives which leads to some processes being neglected.
Subsequently, the optimization targets which address these inadequacies are displayed, and an optimization approach for the improvement of the OSSD model is described. The approach incorporates the expansion of the identified roles, the introduction of new or the expansion of already identified processes and the modification or expansion of artifacts of the generalized OSSD model. The presented model enhancements serve, above all, to increase quality assurance and to compensate neglected processes in order to improve developed software quality as well as process quality in the context of OSSD.
Furthermore, software functionalities are described which expand the existing identified software infrastructure and should enable an overall, software-technical support of OSSD processes. Finally, the various application scenarios of OSSD model methods - also in commercial SE - are identified and an implementation approach based on the OSS GENESIS is presented which can be used to implement and support the OSSD model.
|
23 |
Modelldriven arkitektur förbättrar hanteringen av problemet med import av data till ER-modeller / Model Driven Architecture improves managing the problem of migrating data to ER modelsFreij, Urban January 2015 (has links)
I många sammanhang är det önskvärt att importera data från textfiler, excelfiler och liknande till en databas. För detta krävs att data i något skede översätts till en ER-modell (Entity Relationship), en modell som beskriver relevanta delar i ett databasschema. Modellen för hur denna översättning ser ut varierar från fall till fall. I det här examensarbetet har en applikation tagits fram för import av data till en ER-modell ur ett modellperspektiv i linje med Model Driven Architecture (MDA) ™. Vinsten ligger i att använda en metamodell som beskriver hur olika modeller för transformering från tabelldata till en ER-modell får se ut. Modellerna i sin tur beskriver hur transformeringen ska se ut. På så sätt kan flera olika modeller användas utan att ändringar i källkoden behöver göras. Metamodellen som beskriver transformeringen har visualiserats i ett klassdiagram. Klassdiagrammet beskriver schematiskt sambanden mellan tabeller som data ska importeras ifrån och den ER-modell som data ska överföras till. Metamodellen har transformerats till ett XML-schema. Modellerna som ska användas har skrivits i en XML-fil som följer den transformerade metamodellen. / In many situations it is desirable to import data from text files, excel files and similar to a database. To do so the data needs to be translated at some stage to an ER model (Entity Relationship), i.e. a model describing relevant parts of a database schema. The approach for this translation varies from case to case. During this thesis an application has been developed to import data to an ER model from a modeling perspective, in line with the Model Driven Architecture (MDA) ™. The gain lies in using a metamodel that describes how different models for transformation from grid tables to an ER mode may look like. The models in turn describe how the transformation will look, thus allowing the usage of several different models without any need of changes to the source code. The metamodel describing the transformation of data can be visualized in a class diagram. The class diagram schematically describes the relationships between tables of data to be imported from and the ER model the data will be transferred to. Preferable is to write a model in an XML that conforms to the metamodel. Therefore the class diagram should be transformed into an XML schema that enables validation of the model in the XML file.
|
24 |
Combining individual-based and meta-modeling: Risk assessment of the European spruce bark beetle (Ips typographus L.) at the example of a national park in GermanyPietzsch, Bruno Walter 23 February 2024 (has links)
European forests have experienced vitality loss and dieback due to increasing disturbances, temperatures, droughts, and forest management. Around 160 million cubic meters of woody biomass in Germany were damaged from 2018 to 2020. Protected areas can offer insights into the natural resilience of European forests after disturbances. However, they face conflicts such as mass outbreaks and the spread of insect pests that can threaten biodiversity and natural habitats. The European spruce bark beetle (Ips typographus) is among Europe’s most important and severe forest pest species and can act as an ecological disturbance. Due to ongoing climate change, no weakening is expected in the future. Forest management can directly influence important drivers of disturbance regimes. However, the response times are likely slow, requiring effective and adaptive risk-assessing management. Simulation models can play an important and influential role in such management as decision-making tools or for analysis of important drivers. Such models have been successfully applied in fishery management, disease control, and forest fire management. While there are many models published about Ips typographus, there is still no simulation tool that individually describes trees and beetles with their properties and decisions, tests the effectiveness of management measures, and uses spatially explicit data for natural landscapes. This approach would allow for investigating infestation patterns and development in natural landscapes based on individual beetle and tree traits. It could also be used to study the impact of climate change and forest protection management on all spatial scales - from individual beetles to entire landscapes.
The main goal of the thesis is to predict the risk of bark beetle infestations and outbreaks in a national park region in Germany under different climate change and management scenarios as an emergent outcome of individual traits of the European spruce bark beetle and its host tree. To achieve this goal, a combination and improvement of existing models on the life history of Ips typographus and its host tree Picea abies is done to simulate infestations on an individual level. The results are then scaled to the landscape level using a Markov chain metamodel for 20 years into the future. It is shown how (i) management scenarios consisting of different sanitation felling intensities, and (ii) climate change scenarios representing increasing numbers of yearly beetle generations interact and affect the infestation spread.
Chapter 2 discusses the creation, testing, and implementation of a new simulation model for the dispersal and infestation of Ips typographus in a natural European landscape. The IPS-SPREADS (Infestation Pattern Simulation Supporting PREdisposition Assessment DetailS) model is an innovative combination of existing models on beetle phenology (PHENIPS), spruce tree predisposition (PAS - predisposition assessment systems), and precise mechanistic dispersal flight in an artificial forest (IPS - Infestation Pattern Simulation). The model is used to study the effectiveness of sanitation felling in five different research areas at the border of a national park in Germany under varying annual beetle generation numbers. Chapter 3 explores the various purposes and types of metamodels used in agentbased modeling and attempts to identify and rank the most suited or efficient model types for each application. This assessment was accomplished through a systematic literature review of 27 scientific publications containing 40 different metamodel applications in an individual-based modeling context. A standardized rating instruction was created and used by the candidate and a group of other Ph.D. students and postdoctoral researchers to objectively rate different metamodel applications, such as upscaling agent-based models or conducting sensitivity analyses.
In Chapter 4 of the dissertation, the IPS-SPREADS simulation model is used to predict the risk of bark beetle infestations in a national park region for 20 years into the future. A metamodel approach based on Markov chains is used to scale the computationally demanding IPS-SPREADS model to larger temporal and spatial scales. The metamodel is calibrated and validated using data on infested trees from 2015 to 2017. The model is then used to assess the effectiveness of sanitation felling in preventing the spread of a bark beetle outbreak from the national park to adjacent forests until 2038. This work adds to a series of previous studies investigating several aspects of the Norway spruce (Picea abies) and European spruce bark beetle (Ips typographus) system, such as risk assessment, beetle development, beetle dispersal, and infestation patterns, the effectiveness of forest protection measures against the beetle spread or the impact of bark beetle disturbance on the forest as well as its interaction with other disturbances. The results of the studies presented as thesis chapters 2 to 4 indicate that regardless of the number of yearly beetle generations and the spatial or temporal scale, a sanitation felling intensity of 80 % and above seems to mitigate further mass outbreak propagation. It is also shown that habitat inter-connectivity and individual traits of beetles and host trees substantially affect the infestation patterns. In addition, commonly applied metamodel types and application purposes in an individual-based modeling context are revealed. The most promising model variant varies in regard to the chosen application aim.
Further research directions based on the work presented in this thesis incorporate
investigating spatial configurations of mixed forest stands and their effect on the dispersal and infestation risk of the European spruce bark beetle. Furthermore, it is discussed how applying and integrating open-access GIS data, such as the European Unions Copernicus program, could improve model validity and applicability. The effects and implications for implementing and analyzing further management measures, such as buffer zones around protected areas, terrestrial detection based on visual clues, and dispensers with anti-attractants in the proposed model framework, are discussed. / Europas Wälder haben aufgrund von zunehmenden Störungen, Temperaturen, Dürren und vergangener Managemententscheidungen an Vitalität verloren und zeigen großflächige Absterbeerscheinungen. Allein in Deutschland betrug das Schadvolumen von 2018 bis 2020 rund 160 Millionen Kubikmeter. Schutzgebiete können Einblicke in die natürliche Widerstandsfähigkeit der Wälder nach Störungen gewähren, bieten aber auch Potenzial für Konflikte wie Massenvermehrungen und Ausbreitung von Schädlingen, die die biologische Vielfalt und die natürlichen Lebensräume bedrohen können. Der Große Achtzähnige Fichtenborkenkäfer (Ips typographus) gehört zu den wichtigsten und schwerwiegendsten Waldschädlingen in Europa. Aufgrund des anhaltenden Klimawandels ist keine Gefährdungsabnahme der Waldbeständen zu erwarten. Während die Forstwirtschaft wichtige Treiber von Störungsregimen direkt oder indirekt beeinflussen kann, sind die Reaktionszeiten sehr langsam und verlangen ein wirksames und adaptives Risikomanagement. Simulationsmodelle können eine wichtige und effektive Rolle für das Management als Entscheidungshilfen oder zur Analyse wichtiger Treiber spielen. Beispiele für erfolgreiche Anwendungen im Entscheidungsprozess stellen Bereiche wie das Fischereimanagement, die Bekämpfung von Epidemien und das Waldbrandmanagement dar. Obwohl es bereits einige Simulationsmodelle für Ips typographus gibt, wurde bisher kein Ansatz untersucht, bei dem sowohl die Bäume als auch die Käfer als Individuen mit Eigenschaften, Wahrnehmung und Interaktionen abgebildet werden. Mit solch einem Modell könnte untersucht werden, wie sich die individuellen Eigenschaften der Käfer und der Bäume auf die Befallsmuster und die Wirksamkeit von Managementmaßnahmen in Abhängigkeit der betrachteten räumlichen oder zeitlichen Skala auswirken.
Das Hauptziel der vorliegenden Dissertation besteht daher darin, das Risiko von
Borkenkäferbefall und von Ausbrüchen unter verschiedenen Klimawandel- und Managementszenarien als emergentes Ergebnis individueller Eigenschaften des Großen Achtzähnigen Fichtenborkenkäfers und seines Wirtsbaums zu analysieren. Dies geschieht durch die Kombination, Verbesserung und Anwendung bestehender Modelle zur Lebensgeschichte von Ips typographus und dessen Wirtsbaum Picea abies am Beispiel einer Nationalparkregion in Deutschland. Die Ergebnisse des Individuenbasierten Modells werden anschließend auf die Landschaftsebene und für 20 Jahre in die Zukunft skaliert, indem ein auf Markov-Ketten basierendes Metamodel kreiert und validiert wird. Es wird gezeigt, wie (i) Managementszenarien bestehend aus verschiedenen Entnahmeintensitäten befallener Bäume sowie (ii) Klimawandelszenarien bestehend aus einer Zunahme der jährlichen Käfergenerationen interagieren und die Befallsausbreitung beeinflussen.
In Kapitel 2 der Dissertation wird die Entwicklung, Überprüfung und Implementierung eines neuen Simulationsmodells für die Ausbreitung und den Befall von Ips typographus in einer realen Landschaft Europas diskutiert. Das IPS-SPREADS (Infestation Pattern Simulation Supporting REdisposition Assessment DetailS) Modell ist eine innovative Kombination bestehender Modelle zur Phänologie des Käfers (PHENIPS), der Prädisposition des Wirtsbaumes gegenüber Borkenkäferbefall (PAS - Prädispositionsabschätzsysteme) und der Individuen-basierten Simulation des Ausbreitungsflugs der Käfer in einem künstlichen Wald (IPS - Infestation Pattern Simulation). Das neue Modell IPS-SPREADS wird dann verwendet, um die Wirksamkeit der Entnahme befallener Bäume in fünf verschiedenen Probeflächen des Nationalparks Sächsische Schweiz während zunehmender jährlicher Käfergenerationen zu untersuchen. Darüber hinaus wird der Einfluss individueller Eigenschaften auf das Befallsgeschehen und auf die Wirksamkeit der Entnahme befallener Bäume analysiert.
Kapitel 3 widmet sich der Anwendungsgebiete und Typen von Metamodellen, die für Agenten-basierten Modelle verwendet werden, und versucht, die vielversprechendsten Modelltypen je Anwendung zu identifizieren. Dies geschieht mittels einer systematischen Literaturanalyse, die 27 wissenschaftliche Veröffentlichungen mit insgesamt 40 verschiedenen Metamodellanwendungen für Individuen-basierte Modelle untersucht. Ein standardisiertes Bewertungsverfahen wird erstellt und vom Kandidaten zusammen mit einer Gruppe von Doktoranden und Postdoktoranden angewendet, um die Metamodelle im Bezug auf ihr Anwendungsziel objektiv zu bewerten.
In Kapitel 4 der Dissertation wird das entwickelte IPS-SPREADS Modell verwendet, um das Risiko von Borkenkäferbefall in einer Nationalparkregion für 20 Jahre in die Zukunft vorherzusagen. Dafür wird ein Metamodell basierend auf Markov-Ketten entwickelt, welches das rechenintensive IPS-SPREADS Modell auf größere zeitliche und räumliche Skalen hebt. Dieses Metamodell wird mittels Befallsdaten aus der Nationalparkregion für die Jahre 2015 bis 2017 validiert. Im Anschluss wird das Metamodell dann verwendet, um die Wirksamkeit der Entnahme befallener Bäume für die Ausbreitungsbekämpfung eines Borkenkäfermassenbefalls vom Nationalpark in die angrenzenden Wälder während eines 20-jährigen Zeitraums zu untersuchen.
Die vorliegende Arbeit baut auf einer Reihe von Studien auf, die verschiedene Aspekte des Systems von Großem Achtzähnigen Fichtenborkenkäfer (Ips typographus) und Gemeiner Fichte (Picea abies) untersuchen: Prädispositionsbewertung, Käferentwicklung, Ausbreitungs- und Befallsmuster sowie die Wirksamkeit von Waldschutzmaßnahmen gegen die Befallsausbreitung. Die Ergebnisse der als Kapitel zwei bis vier vorgestellten Studien zeigen, dass unabhängig von der Anzahl der jährlichen Käfergenerationen und der räumlichen oder zeitlichen Skala eine Entnahmeintensität befallener Bäume von 80 % und mehr die Ausbreitung eines Massenbefalls zu mindern scheint. Es wird auch gezeigt, dass die Habitatvernetzung und die individuellen Eigenschaften der Käfer und Wirtsbäume die Befallsmuster beeinflussen. Darüber hinaus werden häufig angewandte Metamodelltypen und Anwendungszwecke in einem Individuenbasierten Modellierungskontext zusammengetragen und die vielversprechendste Modellvariante je Anwendungsgebiet extrahiert.
Zum Schluss werden weitere Forschungsrichtungen basierend auf den vorgestellten
Studien diskutiert, wie zum Beispiel die Untersuchung der räumlichen Konfiguration von Mischwäldern und deren Auswirkungen auf das Befallsgeschehen des Großen
Achtzähnigen Fichtenborkenkäfers. Des Weiteren wird diskutiert, wie die Anwendung
und Integration von frei verfügbaren GIS-Daten, wie beispielsweise des Copernicus
Programms der Europäischen Union, die Validität und Anwendbarkeit der entwickelten Modelle verbessern können. Am Ende werden potenzielle Implikationen für die Implementierung und Analyse weiterer Managementmaßnahmen wie Pufferzonen um Schutzgebiete, terrestrische Erkennung von Borkenkäferbefall sowie Dispenser mit Anti-Aggregationspheromonen im Rahmen der vorgestellten Modellstudien diskutiert.
|
25 |
MKM – ein Metamodell für KorpusmetadatenOdebrecht, Carolin 11 September 2018 (has links)
Korpusdokumentation wird in dieser Arbeit als eine Voraussetzung für die Wiederverwendung von Korpora und als ein Bestandteil des Forschungsdatenmanagements verstanden, welches unter anderem die Veröffentlichung und Archivierung von Korpora umfasst. Verschiedene Forschungsdaten stellen ganz unterschiedliche Anforderungen an die Dokumentation und können auch unterschiedlich wiederverwendet werden. Ein geeignetes Anwendungsbeispiel stellen historische Textkorpora dar, da sie in vielen Fächern als empirische Grundlage für die Forschung genutzt werden können. Sie zeichnen sich im Weiteren durch vielfältige Unterschiede in ihrer Aufbereitung und durch ein komplexes Verhältnis zu der historischen Vorlage aus. Die Ergebnisse von Transkription und Normalisierung müssen als eigenständige Repräsentationen und Interpretationen im Vergleich zur Vorlage verstanden werden. Was müssen Forscherinnen und Forscher über ihr Korpus mit Hilfe von Metadaten dokumentieren, um dessen Erschließung und Wiederverwendung für andere Forscherinnen und Forscher zu ermöglichen? Welche Funktionen übernehmen dabei die Metadaten? Wie können Metadaten modelliert werden, um auf alle Arten von historischen Korpora angewendet werden zu können? Die Arbeit und ihre Fragestellung sind fest in einem interdisziplinären Kontext verortet. Für die Beantwortung der Forschungsfragen wurden Erkenntnisse und Methoden aus den Fachbereichen der Korpuslinguistik, der historischen Linguistik, der Informationswissenschaft sowie der Informatik theoretisch und empirisch betrachtet und für die Entwicklung eines Metamodells für Korpusmetadaten fruchtbar gemacht. Das im Rahmen dieser Arbeit in UML entwickelte Metamodell für Korpusmetadaten modelliert Metadaten von historischen textbasierten Korpora aus einer technisch-abstrakten, produktorientierten und überfachlichen Perspektive und ist in einer TEI-Spezifikation mit Hilfe der TEI-eigenen Modellierungssprache ODD realisiert. / Corpus documentation is a requirement for enabling corpus reuse scenarios and is a part of research data management which covers, among others, data publication and archiving. Different types of research data make differing demands on corpus documentation, and may be reused in various ways. Historical corpora represent an interesting and challenging use case because they are the foundation for empirical studies in many disciplines and show a great variety of reuse possibilities, of data creation, and of data annotation. Furthermore, the relation between the historical corpus and the historical original is complex. The transcription and normalisation of historical texts must be understood as independent representations and interpretations in their own right. Which kind of metadata information, then, must be included in a corpus documentation in order to enable intellectual access and reuse scenarios? What kind of role do metadata play? How can metadata be designed to be applicable to all types of historical corpora? These research questions can only be addressed with help of an interdisciplinary approach, considering findings and methods of corpus linguistics, historical linguistics, information science and computer science. The metamodel developed in this thesis models metadata of historical text-based corpora from a technical, abstract, and interdisciplinary point of view with help of UML. It is realised as a TEI-specification using the modelling language ODD.
|
26 |
Dynamische Modellanalyse von Metamodellen mit operationaler SemantikSoden, Michael 18 March 2015 (has links)
Metamodellierung im Sinne der Meta Object Facility (MOF) stellt eine Methode für die strukturelle Definition der abstrakten Syntax von Modellierungssprachen und Modellen im Softwareentwicklungsprozess dar. Um Modellsimulation und dynamische Analysen für metamodellbasierte Sprachen zu unterstützen, fehlt es an einem Kalkül zur operationalen Semantik. In dieser Arbeit wird ausgehend von MOF die Aktionssemantik MActions entwickelt, die die Definition von operationaler Semantik als Verhalten in Metamodellen ermöglicht. Diese Erweiterung geht einher mit der Beschreibung von Laufzeitmodellen sowie Zuständen und Parallelitätseigenschaften, so dass eine Verifikation von dynamischen Eigenschaften möglich wird. Zu diesem Zweck wird mit der Linear Temporal Object Constraint Language (LT-OCL) exemplarisch eine prädikatenlogische Temporallogik entwickelt, die eine metamodellunabhängige Analyse für ausführbare Modelle erlaubt. Dabei ist die Semantik von temporalen Ausdrücken über Zuständsänderungen von (aufgezeichneten) Ausführungsläufen beschrieben, wobei eine Linearisierung parallele Änderungen zusammenführt. Als weiteren Anwendungsfall der dynamischen Analyse untersuchen wir die Relation zum Verhaltensvergleich im Sinne der Bisimulationstheorie. Metamodelle, Aktionssemantik und Temporallogik werden mittels einer erweiterten Abstract State Machine (ASM) formal beschrieben und kommen in zwei Fallstudien zur Anwendung (Timed Automata und C#). / Object-oriented metamodelling as defined by the Meta Object Facility (MOF) provide a means to describe the structure of models and the abstract syntax of modelling languages at various stages in a software development process. However, MOF lacks concepts for the definition of operational semantics and there is no support for dynamic model analysis based on the semantics and abstract states of a language definition. This thesis investigates on extending the metamodelling framework with an action semantics - the MActions - to support the definition of operational semantics in metamodels and enable simulation as well as verification of dynamic properties. For this purpose, runtime models are incorporated with semantics for states, time, and properties of parallelism that allow a generic analysis solely bound to a certain metamodel definition. Furthermore, we develop the Linear Temporal Object Constraint Language (LT-OCL) to perform a dynamic analysis of execution runs based on the executable models. The semantics of this temporal predicate logic is bound to state changes of (recorded) execution traces that are linearizations of parallel changes of the runtimes model. This establishes the link to the theory of bisimulation as a second application case of dynamic analysis. Abstract State Machines (ASM) have been used to formally define the action language in conjunction with metamodels and the temporal logic. As proof of concept of the whole approach, the framework has been implemented and applied to two languages as case studies (namely Timed Automata and C#).
|
27 |
Ein modellbasierter Ansatz für adaptierbare und selbstadaptive Komponenten / A Model-based Approach for Adaptable and Self-adaptive ComponentsGöbel, Steffen 14 December 2006 (has links) (PDF)
Die komponentenbasierten Softwareentwicklung verspricht die vereinfachte Entwicklung von komplexen Anwendungen. Um die Wiederverwendbarkeit zu verbessern und die Flexibilität zu erhöhen, müssen Komponenten dazu möglichst an verschiedene Umgebungsbedingungen angepasst werden können, sowohl innerhalb einer als auch in unterschiedlichen Anwendungen. Diese Prozesse werden als Komponentenadaption bezeichnet. In dieser Arbeit wird ein neues Adaptionskonzept für Komponenten entwickelt. Die sogenannten Adaptierbare Komponenten verwenden ein hierarchisches Komponentenmodell und werden aus einer Menge von Subkomponenten zusammengesetzt. Die Kernidee zur Umsetzung der Adaptivität besteht darin, bestimmte Parameterwerte einer Adaptierbaren Komponente auf unterschiedliche interne Konfigurationen der Subkomponenten abzubilden. Zur Beschreibung der möglichen internen Konfigurationen von Adaptierbaren Komponenten werden vier verschiedene graphische Modellierungstechniken entwickelt, die alle auf der graphischen Notation von UML-Komponentendiagrammen basieren und diese erweitern. Eine sogenannte Parameterabbildung definiert die Zuordnung von Parameterwerten auf bestimmte Konfigurationen. Die Konzepte Adaptierbarer Komponenten setzen keine neue Komponentenplattform voraus, sondern werden durch eine Kombination von Modelltransformation und spezieller Laufzeitunterstützung auf existierende Komponentenplattformen abgebildet. Ein dazu entwickeltes generisches Verfahren definiert die Schritte zur Unterstützung einer neuen Komponentenplattform. Mit Hilfe von zwei Fallstudien wird gezeigt, dass sich die Modellierungskonzepte von Adaptierbaren Komponenten für komplexe Beispiele anwenden lassen. Mit EJB, JavaBeans und Microsoft COM wird die Modelltransformation und Laufzeitunterstützung anhand des generischen Verfahrens exemplarisch für populäre Komponentenplattformen demonstriert.
|
28 |
Assuring Quality in Web-Based Information Systems : A quality-driven design modelTheodorsson, Mike, Rydiander, Ida January 2007 (has links)
<p>Quality has always been an elusive concept in information system design, even more so when dealing with the online-sphere. The purpose of this thesis is to investigate and dissect the concept of quality and present a practical way to apply it to the design process. To do this, a quality-driven design model has been developed, focused around four crucial aspects of overall quality: accessibility, usability, navigation and interactivity. By utilizing simple and practical techniques and measuring their success in achieving quality, this study attempts to prove that quality can be harnessed as a hands-on resource, guaranteed in any design project involving a Web-Based Information System, merely by applying this model.</p> / <p>Kvalitet har alltid varit ett begrepp svårt att fånga och tillämpa, speciellt när området Internet kommer in i bilden. Den här C-uppsatsen har således som syfte att undersöka och bryta ned kvalitetskonceptet samt presentera ett praktiskt tillvägagångsätt som kan utnyttjas under design processen. För att göra detta så har vi utvecklat en kvalitetsdriven designmodell, fokuserad runt fyra kvalitetsaspekter: tillgänglighet, användbarhet, navigation och interaktion. Genom att utnyttja praktiska och enkla tekniker och genom att mäta deras effektivitet i att utveckla kvalitet, så försöker den här studien att bevisa att kvalitet kan användas som en praktisk resurs. Kvalitet kan garanteras i alla designprojekt som involverar ett web-baserat informationssystem, genom användning av denna modell.</p>
|
29 |
Assuring Quality in Web-Based Information Systems : A quality-driven design modelTheodorsson, Mike, Rydiander, Ida January 2007 (has links)
Quality has always been an elusive concept in information system design, even more so when dealing with the online-sphere. The purpose of this thesis is to investigate and dissect the concept of quality and present a practical way to apply it to the design process. To do this, a quality-driven design model has been developed, focused around four crucial aspects of overall quality: accessibility, usability, navigation and interactivity. By utilizing simple and practical techniques and measuring their success in achieving quality, this study attempts to prove that quality can be harnessed as a hands-on resource, guaranteed in any design project involving a Web-Based Information System, merely by applying this model. / Kvalitet har alltid varit ett begrepp svårt att fånga och tillämpa, speciellt när området Internet kommer in i bilden. Den här C-uppsatsen har således som syfte att undersöka och bryta ned kvalitetskonceptet samt presentera ett praktiskt tillvägagångsätt som kan utnyttjas under design processen. För att göra detta så har vi utvecklat en kvalitetsdriven designmodell, fokuserad runt fyra kvalitetsaspekter: tillgänglighet, användbarhet, navigation och interaktion. Genom att utnyttja praktiska och enkla tekniker och genom att mäta deras effektivitet i att utveckla kvalitet, så försöker den här studien att bevisa att kvalitet kan användas som en praktisk resurs. Kvalitet kan garanteras i alla designprojekt som involverar ett web-baserat informationssystem, genom användning av denna modell.
|
30 |
Statistische Tolerierung mit der Multiziel - Konstruktionsstudie und flexiblen parametrischen Komponenten im CAD-System CreoPietsch, Karsten, Lengas, Nikolaos 05 July 2019 (has links)
Bei der Fertigung mechatronischer Produkte in den vielfältigen Industriebranchen, wie der
Medizintechnik, dem Maschinen- und Automobilbau etc., bestehen stets erhöhte
Qualitätsansprüche, um Funktionalität, Herstellbarkeit, Kosten und weitere produktbedingte
Aspekte zu gewährleisten.
Infolgedessen hat das Toleranzmanagement erheblich an Bedeutung gewonnen. Die Art und
Weise der Toleranzfestlegung im Entwicklungsprozess eines Produktes stellt einen wesentlichen
Bestandteil der Produktbeschreibung dar und hat eine signifikante Auswirkung auf die Optimierung
der Funktion, der Kosten oder der Herstellprozesse.
Die Funktion der mechatronischen Produkte stützt sich auf mechanische, thermische oder auch
z. B. elektromagnetische Eigenschaften. Somit sollen diese physikalischen Abhängigkeiten neben
der rein geometrischen Toleranzanalyse mitberücksichtigt und untersucht werden.
Ein Toleranzmodell für die funktionelle nichtlineare Maßkette wird anhand der Identifikation der
wesentlichen Produktmerkmale aufgestellt und erfasst die wichtigsten Beitragsleister.
Dabei handelt es sich um eine physikalische Maßkette, die auch Materialeigenschaften wie z. B.
Reibwerte, E-Modul und Temperaturlängenausdehnungskoeffizienten berücksichtigen kann.
Auf Basis der Ergebnisse von finiten Elemente Analysen (FEA) in Creo Simulate können flexible
Bauteile erstellt werden, die zur Aufstellung eines parametrischen Toleranzmodells verwendet
werden können. Die Multiziel-Konstruktionsstudie, die Creo anbietet, ist dann in der Lage, die
festgelegten Parameter je nach Anforderung statistisch zu variieren, wobei das jeweilige Modell
sich dank seiner Definition anhand der flexiblen Bauteile analog zu den FEA – Ergebnissen
verformt. Auf diese Weise kann die funktionelle Maßkette in dem gezeigten Beispiel die Öffnerkraft
eines elektromechanischen Relais bestimmt und dementsprechend die Produktbeschreibung
optimiert werden. Anschließend soll die durchgeführte Konstruktionsstudie in dem CAD-System
Creo mit weiteren Toleranzsimulationsprogrammen wie z. B. Cetol von Sigmetrix verglichen und
validiert werden.
Das entwickelte Methodische Tolerieren kann in der CAD-integrierten modellbasierten
Prozesskette in der virtuellen Produktentwicklung verwendet werden.
Damit ist eine effiziente Kommunikationsschnittstelle zwischen den Abteilungen der Konstruktion
und der Simulation geschaffen.
|
Page generated in 0.0833 seconds