• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 127
  • 54
  • Tagged with
  • 179
  • 179
  • 179
  • 179
  • 179
  • 26
  • 24
  • 20
  • 18
  • 18
  • 17
  • 15
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Student Scientometrics – What do German Students of the Humanities Cite in their Term Papers?

Henning, Tim, Gutiérrez De la Torre, Silvia E., Burghardt, Manuel 11 July 2024 (has links)
No description available.
152

Money Can't Buy Love?' Creating a Historical Sentiment Index for the Berlin Stock Exchange, 1872–1930

Borst-Graetz, Janos, Burghardt, Manuel, Wehrheim, Lino 11 July 2024 (has links)
No description available.
153

Marco Polo's Travels Revisited: From Motion Event Detection to Optimal Path Computation in 3D Maps

Niekler, Andreas, Wolska, Magdalena, Wiegmann, Matti, Stein, Benno, Burghardt, Manuel, Thiel, Marvin 11 July 2024 (has links)
In this work, we present a workflow for semi-automatic extraction of geo-references and motion events from the book 'The Travels of Marco Polo'. These are then used to create 3D renderings of the space and movement which allows readers to visually trace Marco Polo's route themselves to provide the exprience of the entirety of the journey
154

FakeNarratives – First Forays in Understanding Narratives of Disinformation in Public and Alternative News Videos

Tseng, Chiao-I;, Liebl, Bernhard, Burghardt, Manuel, Bateman, John 04 July 2024 (has links)
No description available.
155

Methoden zur endnutzergerechten Erstellung kontextsensitiver, kompositer Multi-Device-Mashups

Mroß, Oliver 19 July 2024 (has links)
Der sich abzeichnende Paradigmenwechsel hin zum Web of Things (WoT) erfordert ein neues Verständnis in Bezug auf die Eigenschaften entsprechender Anwendungen sowie deren Entwicklungsmethoden. In diesem Zusammenhang hat sich in den letzten Jahren das Konzept der sogenannten Multi-Device-Anwendungen (MLDA) herausgebildet. Sie zeichnen sich dadurch aus, dass ihre miteinander verknüpften Softwarebestandteile innerhalb eines logisch zusammenhängenden Anwendungsrahmens verteilt auf verschiedenen Geräten ausgeführt werden. Angesichts sinkender Anschaffungskosten intelligenter Geräte und der damit einhergehenden Nutzungsbereitschaft gewinnt zudem die Forderung nach benutzerfreundlicher Konfigurierbarkeit an Bedeutung. Vor diesem Hintergrund greift diese Dissertation das Paradigma der Web-Mashups als geeigneten Ansatz zur Erstellung von Multi-Device-Anwendungen auf. Nach dem Motto „Write once, run anywhere“ werden wiederverwendbare Web-Komponenten im Kontext sogenannter Multi-Device-Mashup (MDM) geräte- und plattformübergreifend verteilt und über die Geräte hinweg miteinander verknüpft und in Kombination ausgeführt. Aufbauend auf dem CRUISe-Projekt, das universelle Modelle für Web-Mashups bereitstellt, adressiert diese Arbeit als ersten Schwerpunkt Erweiterungen zur modellhaften Beschreibung verteilter Kompositionen unter Berücksichtigung dynamischer und heterogener Geräteumgebungen. Im Rahmen von MDM werden UI-Bestandteile und Webdienste als Softwarekomponenten gekapselt im Gerätecluster nach den Wünschen der Ersteller verteilt integriert. Um auch Gerätefähigkeiten als Dienste innerhalb der Kompositionsebene einbinden zu können, erweitert diese Arbeit Komponentenmodelle um das Konzept der Integrationsanforderungen. Sie beschreiben notwendige Geräteressourcen der Komponenten, die für die Bereitstellung der Gerätedienste notwendig sind. Hierdurch lassen sich nach dem Baukastenprinzip in verteilten Kompositionen Web- und Gerätedienste i. S. d. Web of Things vereint nutzen, z. B. zur Erfassung und Auswertung von Umweltdaten. Als Modellierungsgrundlage schlägt diese Arbeit ein mehrschichtiges Kontextmodell vor. Es unterstützt die automatisierte Auswertung von Kompositionen, um die Eignung von Mashups in Bezug auf die modellhafte Geräteumgebung bestimmen zu können. Die hierfür notwendigen Dienste sind Bestandteil der verteilten Laufzeitumgebung für MDM. Ihre Referenzarchitektur sowie ihre Funktionsweise bilden einen weiteren Schwerpunkt dieser Dissertation. Im Mittelpunkt stehen der Gesamtprozess der kontextsensitiven Integration sowie die Adaption der MDM. Um die Forderung nach Anwenderunterstützung zu erfüllen, erörtert diese Arbeit auch ein strukturiertes Vorgehensmodell für die endnutzergerechte Erstellung von MDM. Es beschreibt die Anwendungsentwicklung als iterativen, zyklischen Prozess, der auch die Laufzeit von MDM adressiert. Zudem ordnet das Vorgehensmodell den Erstellungsschritten geeignete Assistenzdienste zu, die die Endanwender bei der Bewertung, Auswahl und Umverteilung von integrierbaren Kompositionsfragmenten zur Laufzeit angesichts ihres unvollständigen Wissens über verfügbare Geräteressourcen unterstützen. Die prototypische Implementierung der verteilten Laufzeitumgebung sowie der Entwicklungsassistenz für Endanwender wurden im Rahmen einer Benutzerstudie mit Hilfe eines Vergleichswerkzeuges evaluiert. Basierend auf den Untersuchungsergebnissen konnte die Tragfähigkeit und Praktikabilität der vorgestellten Konzepte nachgewiesen werden.:Kapitel 1 Einleitung 1.1 Problemstellung und Thesen 1.1.1 Wissenschaftliche Problemstellung 1.1.2 Forschungsthesen 1.1.3 Vision und Zielstellung 1.2 Abgrenzung 1.3 Gliederung der Arbeit Kapitel 2 Grundlagen 2.1 Einführung und Begriffsklärung 2.1.1 Multi-Device-Anwendungen 2.1.2 Verteilte Benutzerschnittstellen 2.1.3 End-User Development im Internet der Dinge 2.1.4 Entwicklungsmethoden des Ubiquitous Computing 2.2 Anforderungsanalyse 2.2.1 Anwendungsszenarien 2.2.2 Schwerpunkte 2.2.3 Anforderungen an den Entwicklungsprozess 2.2.4 Anforderungen an das Anwendungsmodell 2.2.5 Anforderungen an die verteilte Laufzeitumgebung Kapitel 3 Stand der Forschung und Technik 3.1 Verteilte Benutzerschnittstellen 3.1.1 Modellierung verteilter Benutzerschnittstellen 3.1.2 Leichtgewichtige Entwicklung verteilter Benutzerschnittstellen 3.2 Anwendungsentwicklung im Ubicomp 3.2.1 Selbstadaptive Ubicomp-Systeme 3.2.2 Interaktive Ubicomp-Systeme 3.3 Zusammenfassung und Diskussion 3.3.1 Defizite der Ansätze verteilter Benutzerschnittstellen 3.3.2 Defizite interaktiver und adaptiver Ubicomp-Systeme Kapitel 4 Modellierung kompositer Multi-Device-Anwendungen 4.1 Rollenmodell 4.1.1 Entwurfsebenen 4.1.2 Systemrollen 4.2 Diskussion der Anwendungsmodellierung 4.2.1 Anforderungen an das Metamodell verteilbarer Komponenten 4.2.2 Anforderungen an die Modellierung verteilbarer Kompositionen 4.2.3 Ansatzbewertung 4.3 Erweiterung der CRUISe-Metamodelle 4.3.1 Erweiterung der SMCDL Kapitel 5 Die verteilte Laufzeitumgebung 5.1 Diskussion und Architekturüberblick 5.1.1 Gesamtarchitektur 5.1.2 Die Multi-Device-Umgebung 5.1.3 Geräte-zu-Geräte-Kommunikation 5.1.4 Kontexterfassung und -verwaltung 5.1.5 Gerätedienste 5.2 Integration von Multi-Device-Mashups 5.2.1 Komponentenfilterung 5.2.2 Anmeldung von Nutzern und Geräten 5.2.3 Automatische Bewertung der Kompositionsfragmente 5.2.4 Berechnung der Anwendungsverteilung 5.2.5 Integration verteilter Kompositionsfragmente 5.3 Adaption von Multi-Device-Mashups 5.3.1 Anforderungen 5.3.2 Kontextsensitive Auswertung des Verteilungsmodells 5.4 Zusammenfassung und Diskussion Kapitel 6 Nutzergetriebene Erstellung von Multi-Device-Mashups 6.1 Diskussion zum EUD-Prozess 6.2 Der EUD-Prozess zur Erstellung von Multi-Device-Mashups 6.3 Endnutzergetriebene Adaption von Multi-Device-Mashups 6.3.1 Aufbau der Verteilungsoptionen 6.3.2 Berechnen von Verteilungsoptionen zur Laufzeit 6.3.3 Qualitative Bewertung und Sortierung der Verteilungsoptionen 6.3.4 Der Ablauf der Umverteilung von Mashup-Komponenten 6.4 Zusammenfassung und Diskussion Kapitel 7 Umsetzungen 7.1 Umsetzung der Modellerweiterungen 7.2 Umsetzung der verteilten Laufzeitumgebung 7.2.1 Umsetzung des Servers 7.2.2 Umsetzungen der Geräteseite 7.2.3 Umsetzung der EUD-Werkzeuge 7.3 Zusammenfassung und Diskussion 7.3.1 Umsetzung der Modellerweiterungen 7.3.2 Umsetzung der verteilten Laufzeitumgebung 7.3.3 Umsetzung der EUD-Werkzeuge Kapitel 8 Evaluation 8.1 Evaluationsmethode 8.1.1 Studienteilnehmer 8.1.2 Ablauf der Studiensitzungen 8.1.3 Vergleichskriterien 8.2 Auswertung der Ergebnisse 8.2.1 Auswertung der Probandensitzungen 8.2.2 Auswertung der objektiven Messwerte 8.2.3 Auswertung der Fragebögen 8.3 Zusammenfassung und Diskussion Kapitel 9 Zusammenfassung und Ausblick 9.1 Kapitel im Überblick 9.2 Diskussion und Grenzen der Lösungen 9.2.1 Diskussion der Forschungsziele und Thesen 9.2.2 Grenzen der Lösungen 9.3 Ausblick auf weiterführende Forschungen A Anhänge A.1 Anhang zu den Grundlagen A.1.1 Einführung und Begriffe A.2 Anhang zum Stand der Forschung A.2.1 Leichtgewichtige Entwicklung verteilter Benutzerschnittstellen A.2.2 Interaktive Ubicomp-Systeme A.2.3 Vergleich der Forschungsansätze A.3 Anhang zur Anwendungsmodellierung A.3.1 Diskussion der Anwendungsmodellierung A.3.2 Erweiterung der SMCDL A.3.3 Modellierung verteilbarer Kompositionen A.3.4 Kontextmodellierung A.4 Anhang zur Laufzeitumgebung A.4.1 Domänenmodell der Multi-Device-Umgebung A.4.2 Integration von Multi-Device-Mashups A.5 Anhang zum EUD-Prozess A.6 Anhang zur Umsetzung A.6.1 Umsetzung der Modellerweiterungen A.6.2 Umsetzung der verteilten Laufzeitumgebung A.7 Anhang zur Evaluation A.7.1 Orientierungsfragen und Qualitätskriterien A.7.2 Ergebnisse der Probandensitzungen A.7.3 Messwerte zu objektiven Kriterien A.7.4 Bewertungen der Fragebogenelemente
156

Biologically Inspired Hexagonal Deep Learning for Hexagonal Image Processing

Schlosser, Tobias 27 May 2024 (has links)
While current approaches to digital image processing within the context of machine learning and deep learning are motivated by biological processes within the human brain, they are, however, also limited due to the current state of the art of input and output devices as well as the algorithms that are concerned with the processing of their data. In order to generate digital images from real-world scenes, the utilized digital images' underlying lattice formats are predominantly based on rectangular or square structures. Yet, the human visual perception system suggests an alternative approach that manifests itself within the sensory cells of the human eye in the form of hexagonal arrangements. As previous research demonstrates that hexagonal arrangements can provide different benefits to image processing systems in general, this contribution is concerned with the synthesis of both worlds in the form of the biologically inspired hexagonal deep learning for hexagonal image processing. This contribution is therefore concerned with the design, the implementation, and the evaluation of hexagonal solutions to currently developed approaches in the form of hexagonal deep neural networks. For this purpose, the respectively realized hexagonal functionality had to be built from the ground up as hexagonal counterparts to otherwise conventional square lattice format based image processing and deep learning based systems. Furthermore, hexagonal equivalents for artificial neural network based operations, layers, as well as models and architectures had to be realized. This also encompasses the related evaluation metrics for hexagonal lattice format based representations of digital images and their conventional counterparts in comparison. Therefore, the developed hexagonal image processing and deep learning framework Hexnet functions as a first general application-oriented open science framework for hexagonal image processing within the context of machine learning. To enable the evaluation of hexagonal approaches, a set of different application areas and use cases within conventional and hexagonal image processing – astronomical, medical, and industrial image processing – are provided that allow an assessment of hexagonal deep neural networks in terms of their classification capabilities as well as their general performance. The obtained and presented results demonstrate the possible benefits of hexagonal deep neural networks and their hexagonal representations for image processing systems. It is shown that hexagonal deep neural networks can result in increased classification capabilities given different basic geometric shapes and contours, which in turn partially translate into their real-world applications. This is indicated by a relative improvement in F1-score for the proposed hexagonal and square models, ranging from 1.00 (industrial image processing) to 1.03 (geometric primitives) with single classes even reaching a relative improvement of over 1.05. However, possible disadvantages are also given by the increased complexity of hexagonal algorithms. This is evident by the present potential in regard to runtime optimizations that have yet to be realized for certain hexagonal operations in comparison to their currently deployed square equivalents.:1 Introduction and Motivation 2 Fundamentals and Methods 3 Implementation 4 Test Results, Evaluation, and Discussion 5 Conclusion and Outlook
157

Data-based Therapy Recommender Systems

Gräßer, Felix Magnus 10 November 2021 (has links)
Für viele Krankheitsbilder und Indikationen ist ein breites Spektrum an Arzneimitteln und Arzneimittelkombinationen verfügbar. Darüber hinaus stellen Therapieziele oft Kompromisse zwischen medizinischen Zielstellungen und Präferenzen und Erwartungen von Patienten dar, um Zufriedenheit und Adhärenz zu gewährleisten. Die Auswahl der optimalen Therapieoption kann daher eine große Herausforderung für den behandelnden Arzt darstellen. Klinische Entscheidungsunterstützungssysteme, die Wirksamkeit oder Risiken unerwünschter Arzneimittelwirkung für Behandlungsoptionen vorhersagen, können diesen Entscheidungsprozess unterstützen und \linebreak Leitlinien-basierte Empfehlungen ergänzen, wenn Leitlinien oder wissenschaftliche Literatur fehlen oder ungeeignet sind. Bis heute sind keine derartigen Systeme verfügbar. Im Rahmen dieser Arbeit wird die Anwendung von Methoden aus der Domäne der Recommender Systems (RS) und des Maschinellen Lernens (ML) in solchen Unterstützungssystemen untersucht. Aufgrund ihres erfolgreichen Einsatzes in anderen Empfehlungssystemen und der einfachen Interpretierbarkeit werden zum einen Nachbarschafts-basierte Collaborative Filter (CF) an die besonderen Anforderungen und Herausforderungen der Therapieempfehlung angepasst. Zum anderen werden ein Modell-basierter CF-Ansatz (SLIM) und ein ML Algorithmus (GBM) erprobt. Alle genannten Ansätze werden anhand eines exemplarischen Therapieempfehlungssystems evaluiert, das auf die Behandlung der Autoimmunkrankheit Psoriasis abzielt. Um das Risiko der Empfehlung kontraindizierter oder gar gesundheitsgefährdender Medikamente zu reduzieren, werden Regeln aus evidenzbasierten Leitlinien und Expertenempfehlungen implementiert, um solche Therapieoptionen aus den Empfehlungslisten herauszufiltern. Insbesondere die Nachbarschafts-basierten CF-Algorithmen zeigen insgesamt kleine durchschnittliche Abweichungen zwischen geschätztem und tatsächlichem Therapie-Outcome. Auch die aus den Outcome-Schätzungen abgeleiteten Empfehlungen zeigen eine hohe Übereinstimmung mit der tatsächlich angewandten Behandlung. Die Modell-basierten Ansätze sind den Nachbarschafts-basierten Ansätzen insgesamt unterlegen, was auf den begrenzten Umfang der verfügbaren Trainingsdaten zurückzuführen ist und die Generalisierungsfähigkeit der Modelle erschwert. Im Vergleich mit menschlichen Experten sind alle untersuchten Algorithmen jedoch hinsichtlich Übereinstimmung mit der tatsächlich angewandten Therapie unterlegen. Eine objektive und effiziente Bewertung des Behandlungserfolgs kann als Voraussetzung für ein erfolgreiches ``Krankheitsmanagement'' angesehen werden. Daher wird in weiteren Untersuchungen für ausgwählten klinische Anwendungen der Einsatz von ML Methoden zur automatischen Quantifizierung von Gesunheitszustand und Therapie-Outcome erprobt. Zusätzlich, als weitere Quelle für Informationen über Therapiewirksamkeiten, wird der Einsatz von Sentiment Analysis Methoden zur Extraktion solcher Informationen aus Medikamenten-Bewertungen untersucht. / Under most medical conditions and indications, a great variety of pharmaceutical drugs and drug combinations are available. Beyond that, trade-offs need to be found between the medical requirements and the patients' preferences and expectations in order to support patients’ satisfaction and adherence to treatments. As a consequence, the selection of an optimal therapy option for an individual patient poses a challenging task to prescribers. Clinical Decision Support Systems (CDSSs), which predict outcome as effectiveness and risk of adverse effects for available treatment options, can support this decision-making process and complement guideline-based decision-making where evidence from scientific literature is missing or inappropriate. To date, no such systems are available. Within this work, the application of methods from the Recommender Systems (RS) domain and Machine Learning (ML) in such decision support systems is studied. Due to their successful application in other recommender systems and good interpretability, neighborhood-based CF algorithms are transferred to the medical domain and are adapted to meet the requirements and challenges of the therapy recommendation task. Moreover, a model-based CF method (SLIM) and a state of the art ML algorithm (GBM) are employed. All algorithms are evaluated in an exemplary therapy recommender system, targeting the treatment of the autoimmune skin disease Psoriasis. In order to reduce the risk of recommending contraindicated or even health-endangering drugs, rules derived from evidence-based guidelines and expert recommendations are implemented to filter such options from the recommendation lists. Especially the neighborhood-based CF algorithms show small average errors between estimated and observed outcome. Also, the recommendations derived from outcome estimates show high agreement with the ground truth. The performance of both model-based approaches is inferior to the neighborhood-based recommender. This is primarily assumed to be due to the limited training data sizes, which renders generalizability of the learned models difficult. Compared with recommendations provided by various experts, all proposed approaches are, however, inferior in terms of agreement with the ground truth. An objective and efficient assessment of treatment response can be regarded a prerequisite for successful ``disease management''. Therefore, the use of ML methods for the automatic quantification of health status and therapy outcome for selected clinical applications is investigated in further experiments. Moreover, as additional source of information about drug effectiveness, the use of Sentiment Analysis, in order to extract such information from drug reviews, is investigated.
158

Mitteilungen des URZ 1/2011

Clauß, Matthias, Richter, Frank, Riedel, Wolfgang, Schmidt, Ronald, Kempe, Lothar, Riedel, Ursula, Müller, Thomas, Brose, Steffen, Ehrig, Matthias, Trapp, Holger, Schier, Thomas, Müller, Bert, Grunewald, Dietmar, Ziegler, Christoph, Schindler, Frank, Wolf, Ludwig, Fritsche, Ullrich, Hardt, Wolfram, Lang, Thomas 07 March 2011 (has links)
Informationen für URZ-Nutzer, in dieser Ausgabe speziell der 'Jahresrückblick 2010' - eine Übersicht zur Entwicklung der zentralen IT-Dienste und der IT-Infrastruktur der TU Chemnitz.:Jahresrückblick 2010 - Der URZ-Beirat - Projekte des Jahres 2010 - Lernmanagement und E-Learning an der TU Chemnitz - Entwicklung der Voice-Over-IP-Dienste - Campusnetz-Infrastruktur und Netzdienste - Koordinierung und Entwicklung zentraler Webangebote (Internet-AG) - Nutzung öffentlicher Rechner - Administrationsdienste - Virtual Private Server Hosting (VPSH) - Server Housing - IT-Dienste für die Zentrale Universitätsverwaltung - IT-Dienste für Universitätsbibliothek und Patentinformationszentrum - Speicherdienste - User-Management und Accounting - Software-Dienste - Hardware-Dienste - Ticketsystem OTRS - Aus- und Weiterbildung Kurzinformationen Software-News
159

Inhaltsbasierte Analyse und Segmentierung narrativer, audiovisueller Medien

Rickert, Markus 26 September 2017 (has links)
Audiovisuelle Medien, insbesondere Filme und Fernsehsendungen entwickelten sich innerhalb der letzten einhundert Jahre zu bedeutenden Massenmedien. Große Bestände audiovisueller Medien werden heute in Datenbanken und Mediatheken verwaltet und professionellen Nutzern ebenso wie den privaten Konsumenten zur Verfügung gestellt. Eine besondere Herausforderung liegt in der Indexierung, Durchsuchung und Beschreibung der multimedialen Datenbestände. Die Segmentierung audiovisueller Medien, als Teilgebiet der Videoanalyse, bildet die Grundlage für verschiedene Anwendungen im Bereich Multimedia-Information-Retrieval, Content-Browsing und Video-Summarization. Insbesondere die Segmentierung in semantische Handlungsanschnitte bei narrativen Medien gestaltet sich schwierig. Sie setzt ein besonderes Verständnis der filmischen Stilelemente vorraus, die im Rahmen des Schaffensprozesses genutzt wurden, um die Handlung und Narration zu unterstützten. Die Arbeit untersucht die bekannten filmischen Stilelemente und wie sie sich im Rahmen algorithmischer Verfahren für die Analyse nutzen lassen. Es kann gezeigt werden, dass unter Verwendung eines mehrstufigen Analyse-Prozesses semantische Zusammenhänge in narrativen audiovisuellen Medien gefunden werden können, die zu einer geeigneten Sequenz-Segmentierung führen. / Audiovisual media, especially movies and TV shows, developed within the last hundred years into major mass media. Today, large stocks of audiovisual media are managed in databases and media libraries. The content is provided to professional users as well as private consumers. A particular challenge lies in the indexing, searching and description of multimedia assets. The segmentation of audiovisual media as a branch of video analysis forms the basis for various applications in multimedia information retrieval, content browsing and video summarization. In particular, the segmentation into semantic meaningful scenes or sequences is difficult. It requires a special understanding of cinematic style elements that were used to support the narration during the creative process of film production. This work examines the cinematic style elements and how they can be used in the context of algorithmic methods for analysis. For this purpose, an analysis framework was developed as well as a method for sequence-segmentation of films and videos. It can be shown that semantic relationships can be found in narrative audiovisual media, which lead to an appropriate sequence segmentation, by using a multi-stage analysis process, based on visual MPEG-7 descriptors.
160

Knowledgebase basiertes Scheduling für hierarchisch asynchrone Multi-Core Scheduler im Systembereich Automotive und Avionik

Hanti, Thomas 24 October 2019 (has links)
In Automobilen Elektrik /Elektronik (E/E) Systemen sowie in der Flugzeugavionik gibt es eine Vielzahl an Funktionen, die den Fahrzeugführer/Piloten bei seinen Aufgaben unterstützen können. Die Anzahl und Verbreitung der Funktionen nahm in den letzten Jahren sehr stark zu und ein Ende dieses Trends ist nicht in Sicht. Neue Technologien, wie komplett autonomes Fahren bei Fahrzeugen sowie eine stetige Erhöhung des Autonomie Levels von Unmanned Aerial Vehicles (UAVs) in der Avionik bringen das heutige E/E Konzept an die Grenzen des Vertretbaren. Das klassische, statisch konfigurierte E/E Konzept steht somit vor einer neuen Herausforderung, nämlich eine Vielzahl von neuen, zusätzlichen Funktion zu integrieren und dabei die gleiche Funktionalität, Determinismus und Zuverlässigkeit an den Tag zu legen, wie in der Vergangenheit. Mit dem klassischen statischen Konzept ist diese Anforderung nur zu gewährleisten, wenn für jede neue Funktion ein eigenes Steuergerät in das System Automobil/Flugzeug integriert wird. Da dieses Konzept aber hohe Kosten und erweiterten Bauraum nach sich zieht, ist es nicht mehr vertretbar und es wird nach neuen Optimierungsansätzen gesucht. Ein Optimierungsansatz ist der Übergang vom statischen zum semi-statischen Scheduling unter Berücksichtigung der Multi-Core Prozessortechnologie. Dieser Ansatz wird im Hierarchical Asynchronous Multi-Core System (HAMS) mit der statisch generierten Knowledgebase (KB) für Multi-Core Steuergeräte beschrieben. Diese Dissertation zeigt die Konzepte und Ideen hinter HAMS auf und erörtert wie diese schon in den heutigen Domänen umgesetzt werden können. Dabei werden Funktionen in unterschiedliche Phasen eingeteilt, die sich unter anderem an den aktuellen Fahr-/Flugzustand anlehnen. Des Weiteren werden Funktionen logisch miteinander verknüpft, um konträre Aktivierungszustände zu finden. Aus diesen Eingaben und der Konfiguration des Multi-Core Systems wird das Konzept für die HAMS Knowledgebase entwickelt. Mit der Knowledgebase wird es nun ermöglicht, dass sich das System zur Laufzeit semi-statisch rekonfigurieren kann, ohne dabei den Determinismus von statischen Steuergeräten aus den Domänen Automotive und Avionik zu verletzen. In einer abschließenden Evaluation wird das Konzept an einem realen Beispiel umgesetzt und so die Vorteile und Grenzen aufgezeigt. / In the current automotive electric /electronic (E/E) systems as well as in aircraft avionics a magnitude of functions does exist to assist the driver/pilot fulfilling its tasks. The quantity and distribution of assistant functions has continuously increased over the last few years and an end of this trend is not in sight. New emerging technologies like complete autonomous driving and an increase in the autonomy levels of Unmanned Areal Vehicles (UAVs) push the current E/E architecture towards its limits. The classic, statically configured E/E concept is facing new challenges like integrating a variety of new and additional functions and still displaying the same functionality, determinism and reliability as it has done in the past. Meeting this challenge with the classic, statically configured E/E concept is only possible, by integrating a new electronic control module (ECM) for each of this functions. This approach comes along with high costs for electronic control modules and a need for more installation space. Thus this configuration is not reasonable any more and a search for optimized solutions is ongoing. One strategy is to dissolve the static configurations and evolve into a semi-static configured system with Multi-Core Technology. This approach is described in the Hierarchical Asynchronous Multi-Core System (HAMS) and its statically generated Knowledgebase (KB) for Multi-Core electronic control modules. This dissertation illustrates the concept and ideas behind HAMS and demonstrates how it can already be implemented in today's systems. To do so functions are allocated in distinct phases which reflect the current driving or flying situation. Additionally functions are logically linked together to highlight contrary activation states. Depending on this input and the configuration of the Multi-Core ECM the Knowledgebase concept is developed. Having this Knowledgebase at hand it is now possible to reconfigure a system during run-time without violating the deterministic behavior of ECMs of the automotive and avionic domain. In the final evaluation the concept is realized based on a real example and the advantages as well as the limits are demonstrated.

Page generated in 0.6698 seconds