Spelling suggestions: "subject:"automatisierung"" "subject:"automatisierungs""
11 |
„Mehr“ Bibliothek durch weniger Handgriffe?: Von Selbstverbuchung und ServiceerweiterungBauer, Charlotte, Hacker, Lucia 26 July 2013 (has links)
Längst wissen alle im Bibliotheksgeschäft Tätigen, dass Bibliotheken auch oder gerade in Zeiten von E-Books und Online-Journalen begehrte Arbeits- und Lernorte sind. Überfüllte Lesebereiche, Forderungen nach langen Öffnungszeiten und diversen Arbeitsplatzqualitäten sprechen eine deutliche Sprache. Diesen berechtigten Wünschen stehen jedoch meist knappe Mittel gegenüber und es stellt sich die Frage, wie wir zusätzlichen Service mit gleichbleibenden oder sinkenden Ressourcen leisten können. Was also liegt näher, als bestimmte Abläufe durch Automaten zu ersetzen? Damit könnten Kapazitäten frei werden, mit denen dieses besondere „Mehr“, das eine lebendige Bibliothek heute ausmacht, geboten werden kann.
|
12 |
Analyse notwendiger Anforderungen an das Autonome Fahren im Automobilbereich und Übertragbarkeit auf BaumaschinenSchubert, Torsten, Bäker, Bernard 07 January 2016 (has links) (PDF)
Das autonome Fahren ist derzeit aufgrund zahlreicher aktueller Forschungs- und Entwicklungsprojekte namhafter Automobilhersteller und -zulieferer im Fokus des öffentlichen Interesses. Der stetige Fortschritt des autonomen Fahrens kann unter anderem auf der jährlich in Las Vegas stattfindenden Consumer Electronics Show (CES) festgestellt werden, welche seit einiger Zeit auch von Automobilherstellern als Plattform zur Vorstellung neuer Technologien genutzt wird. So demonstrierte die Audi AG einen A7, der vollständig autonom vom Silicon Valley eine Strecke von 900 km Länge nach Las Vegas fuhr. Darüber hinaus legen auch automobilfremde Hochtechnologiekonzerne ihr Interesse an dieser Schlüsseltechnologie offen und präsentieren eigene Forschungs- und Entwicklungsarbeiten. Google verkündete die Forschung an einem eigenen autonomen Fahrzeug und auch Spekulationen über das Interesse von Apple wurden medial publik.
Dennoch stehen die rasante Entwicklungsgeschwindigkeit und die öffentlich bereits präsentierte Funktionsfähigkeit des Autonomen Fahrens im Kontrast zu der geringen Anwendung im deutschen Straßenverkehr. In Deutschland und anderen Ländern sind bisher nur Pilotprojekte aus Forschung und Entwicklung existent. Diese unterliegen aktuell noch vielen Restriktionen. Dies macht deutlich, dass trotz der bisher erreichten Einzelerfolge dieser Technologie keine Serienreife besteht. So müssen für den tatsächlichen Einsatz des Autonomen Fahrens im Straßenverkehr technologische, soziologische sowie gesetzliche Rahmenbedingungen eingehalten, erweitert, angepasst, respektive erst noch definiert wer-den. Insbesondere im urbanen Umfeld besteht hier hoher Forschungsbedarf auch im Hin-blick auf technologische Rahmenbedingungen. Die vorliegende Arbeit soll einen Einblick über offene Fragestellungen und technologische Hürden sowie deren Bedeutung für das Autonome Fahren ermöglichen. Zudem wird ein kurzer Überblick darüber gegeben, wie dies auf den Sektor der Baumaschinen übertragbar ist.
|
13 |
Identifikation und Mehrgrößenregelung von isolierten Organen in Perfusionssystemen mit nichtlinear dynamischen und wissensbasierten MethodenGransow, Marian 29 May 2017 (has links) (PDF)
Die Transplantation eines Organes ist in der Medizin oftmals die letzte Möglichkeit zur Behandlung einer terminalen Organinsuffizienz. Das grundlegende Problem der internationalen Transplantationsmedizin ist die stetig wachsende Diskrepanz zwischen Bedarf und Angebot von Transplantaten. Die Situation wird dramatisiert durch einen Trend der Marginalisierung von Spenderorganen. Marginale Spenderorgane werden häufig aufgrund mangelnder Möglichkeiten zur Funktionsbewertung verworfen. Die Technik der ex-vivo Organperfusion kann maschinell physiologienahe Bedingungen bereitstellen, um ein isoliertes Transplantat zu rekonditionieren und sogar eine Bewertung seines Zustands zu ermöglichen. Perfusionsprozesse sind organsystemindividuell durch eine hohe Komplexität ihrer biologisch-technisch verkoppelten Vorgänge gekennzeichnet. Für nutzer- und sicherheitsorientierte, klinisch taugliche Perfusionssysteme ist eine Prozessautomatisierung unumgänglich. Hier sind in klassischer anwendungsindividueller Entwicklung hohe Kosten die Folge. Auf Basis von Recherchen zum aktuellen Stand von Medizin und Technik konnten Eigenschaften von Perfusionsprozessen für die Organsysteme Herz, Lunge, Leber und Niere bestimmt werden. Aus ähnlichen Anwendungen der extrakoporalen Lebensunterstützung sind Erkenntnisse zur Systemautomatisierung zusammengetragen worden. In Fortführung der Arbeit sind die Organperfusionsprozesse abstrahiert und verallgemeinert worden. Beteiligte Prozessgrößen, sowie deren funktioneller Verkopplungen wurden identifiziert und evaluiert, um schließlich eine generalisierte, organunabhängige Strategie zur dezentralen Mehrgrößenregelung abzuleiten. Die abgeleitete Regelungsstrategie wurde folgend speziell für die ex-vivo Nierenperfusion umgesetzt. Dazu wurde zunächst auf Basis des generalisierten Organperfusionsprozesses ein Gerätesystem zur Nierenperfusion abgeleitet, entwickelt und aufgebaut.
Für das entstandene Perfusionssystem wurden Modellbildungen und Parameteridentifikationen des Temperatursystems, des hämodynamischen Systems und des Blutgassystems durchgeführt. Die entstandenen Zustandsraummodelle wurden jeweils in Simulink implementiert und mittels realer Perfusionsexperimente an Schweinenieren im Tiermodell validiert. Simulativ und analytisch wurden für die drei Subsysteme Regelungsstrategien zur robusten Einzelgrößenregelung entwickelt und im realen Perfusionssystem implementiert. Im Zuge von weiteren Perfusionsexperimenten im Tiermodell konnten die Regelungen ebenfalls validiert und deren Robustheit im Mehrgrößenfall evaluiert werden. Die Erkenntnisse der speziellen Umsetzung des generalisierten Mehrgrößenregelungsansatzes zur Organperfusion wurden auf die Organsysteme Herz, Lunge und Leber projiziert. Die Hypothese dieser Arbeit, dass eine organübergreifende generalisierte Regelungsstrategie zur ex-vivo Perfusion bei Nutzung mit verschiedenen speziellen Organsystemen tauglich ist, konnte bestätigt werden. Auf dieser Basis ist eine vereinfachte und kostenreduzierte Entwicklung von Perfusionssystemen für verschiedene Organsysteme möglich. / In many cases the transplantation of an organ is the last way to treat a terminal organ insuffiency. The basic problem of international transplant medicine is a continiously increasing gap between the demand and the proposal of sufficient organ grafts. The situation is compounded by the actual trend of marginalization of organ grafts. Marginal donor grafts often are discarded due to absent options to test their vitality and viability. The technique of ex-vivo organ perfusion provides near physiologic conditions in order to recondition and even to evaluate the state of an isolated organ graft. Perfusion processes are organ individual characterized by highly complex coupled biological-technical processes. For achieving an user- and safety-focussed, clinical suitable perfusion system, an automation of the system is inavoidable. Within classical development of technologies, high costs were following. On the base of research according to the actual status quo of medicine and technology, characteristics of the perfusion processes for the heart, the lungs, the liver and the kidneys could be determined. Knowledge about similar processes of extracorporeal life support were gathered. Subsequently the organ perfusion processes were abstracted and generalized. Participating process values, as well as their couplings, were identified and evaluated in order to extract a generalized, organ independent strategy for decentral multivariable control. The extracted control strategy was then transfered specificly for ex-vivo kidney perfusion. Therefore a device for ex-vivo kidney perfusion was developed and built from the generalized organ perfusion process.
According to the implemented device, the temperature system, the hemodynamic system and the blood gas system were modelled mathematically and parameter estimations were performed. The resulted state space models were implemented to Simulink and validated by comparing simulations to the results of experiments on real procine kidneys. Within the simulations and based on analytical methods, robust single variable control strategies for the control of the three subsystems temperature, hemodynamic and blood gases were developed and implemented into the real kidney perfusion device. During further perfusion experiments within the large animal model, the control strategies could be validated an their robustness could be evaluated in the multivariable case. The findings of the special implementation of the generalized multivariableapproach for organ perfusion were projected on the organ systems heart, lungs and liver. The hypothesis of this work, in detail, that a generalized, organ independent control strategy for organ perfusion processes is suitable for the use with several special organ systems, could be confirmed. On this basis, simplified and cost reduced developments of perfusion systems for different organ systems are possible.
|
14 |
Automatisierte Ermittlung bauteilspezifischer Kennwerte in komplexen Produktstrukturen zur Abstraktion umfangreicher Gesamtbaugruppen im TextilmaschinenbereichKurth, Robin 01 July 2015 (has links) (PDF)
Steigende Komplexität von Maschinen und Anlagen sowie unternehmensindividuelle Produktstrukturen führen zu Herausforderungen im Handling großer 3D-Modelle in kommerziell verfügbaren CAD-Systemen. Der Vortrag thematisiert die Anwendung unterschiedlicher Automatisierungsmöglichkeiten des CAD-Systems CATIA V5® der Firma Dassault Systèmes. Hierbei wird zum einen auf die besonderen Herausforderungen im Konstruktionsbereich des Textilmaschinenbaus eingegangen. Zum anderen werden Vorschläge für eine parametergesteuerte Anlagenkonzeption auf Basis von Knowledgeware, eine automatisierte Abstraktion großer Baugruppen und für die automatisierte Ermittlung masseabhängiger Parameter komplexer Produkte vorgestellt.
|
15 |
Planetary mapping tools applied to floor-fractured craters on MarsBamberg, Marlene January 2014 (has links)
Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions.
The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications).
The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing.
Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification.
This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. / Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind.
Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren.
Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben.
Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden.
Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten.
|
16 |
Autonomic Computing09 January 2017 (has links) (PDF)
Software has never been as important as today – and its impact on life, work and society is growing at an impressive rate. We are in the flow of a software-induced transformation of nearly all aspects of our way of life and work. The dependence on software has become almost total. Malfunctions and unavailability may threaten vital areas of our society, life and work at any time.
The two massive challenges of software are one hand the complexity of the software and on the other hand the disruptive environment.
Complexity of the software is a result of the size, the continuously growing functionality, the more complicated technology and the growing networking. The unfortunate consequence is that complexity leads to many problems in design, development, evolution and operation of software-systems, especially of large software-systems.
All software-systems live in an environment. Many of today’s environments can be disruptive and cause severe problems for the systems and their users. Examples of disruptions are attacks, failures of partner systems or networks, faults in communications or malicious activities.
Traditionally, both growing complexity and disruptions from the environment have been tackled by better and better software engineering. The development and operating processes are constantly being improved and more powerful engineering tools are introduced. For defending against disruptions, predictive methods – such as risk analysis or fault trees – are used. All this techniques are based on the ingenuity, experience and skills of the engineers!
However, the growing complexity and the increasing intensity of possible disruptions from the environment make it more and more questionable, if people are really able to successfully cope with this raising challenge in the future. Already, serious research suggests that this is not the case anymore and that we need assistance from the software-systems themselves!
Here enters “autonomic computing” – A promising branch of software science which enables software-systems with self-configuring, self-healing, self-optimization and self-protection capabilities. Autonomic computing systems are able to re-organize, optimize, defend and adapt themselves with no real-time human intervention. Autonomic computing relies on many branches of science – especially computer science, artificial intelligence, control theory, machine learning, multi-agent systems and more.
Autonomic computing is an active research field which currently transfers many of its results into software engineering and many applications. This Hauptseminar offered the opportunity to learn about the fascinating technology “autonomic computing” and to do some personal research guided by a professor and assisted by the seminar peers.
|
17 |
Vorhersage und Analyse von konservierten Merkmalen der Kontrollregion mitochondrialer GenomeExternbrink, Fabian 23 January 2018 (has links)
Ein großer Bereich der Bioinformatik ist die automatische Annotation von Genen. Hier gibt es einige Systeme, die speziell für die Annotation in mitochondrialen Genomen ausgelegt sind. So sind MOSAS1[16], MITOS2[6] und DOGMA3[20] zu erwähnen. Alle können mehr oder weniger automatisch die Proteine, tRNAs und rRNAs annotieren. Keins von ihnen kann aber die Kontrollregionen bzw. den D- Loop vorhersagen.
Diese Arbeit beschäftigt sich mit dieser Lücke und versucht Möglichkeiten zu finden, die eine Automatisierung der Annotation des D-Loop zu erlauben. Als Grundlage für die verschiedenen Annäherungen und die Bewertung der Ergebnisse werden die Annotationen des D-Loops in der NCBI RefSeq 464[13] benutzt. Hier wird eine besondere Aufmerksamkeit auf die Säugetiere gelegt. Dies ist damit begründet, dass es sich dabei um eine übersichtliche Gruppe mit vielen annotierten D-Loop Regionen handelt. So werden mit den Programmen Fragrep [12] und Blast [1] versucht einzelne Merkmale aus dem D-Loop zu annotieren. Diese werden dann zu einer gesamt Annotation des D-Loops im D-Loop-Finder zusammengesetzt.
|
18 |
Eine neuartige vollmechanisierte Schweißanlage für die Sanierung von Heizflächen in Kraftwerks- und MüllverbrennungsanlagenMatthes, K.-J., Kohler, Thomas, Heitz, Sören 16 June 1999 (has links)
Zur Sanierung von Heizflächen in Kraftwerks- und Müllverbrennungsanlagen ist das
Auftragschweißen eine bewährte Methode. Dazu wurde von der
DH Schweißtechnologie & Service Hohenthurm GmbH & Co. KG in Zusammenarbeit mit der
Technischen Universität Chemnitz eine neue vollmechanisierte Schweißanlage
entwickelt. Durch das Anlagenkonzept ergeben sich neue technologische
Möglichkeiten sowie Qualitätsverbesserungen der aufgetragenen Schichten und eine
Reduzierung der Fertigungszeit. / Weld overlay is a proven method for refurbishing boiler tubes in power plants and
sewage sludge burning plants.
DH Schweisstechnologie & Service Hohenthurm GmbH & Co. KG in cooperation with
the University of Technology Chemnitz developed a new automatic welding with
different welding alloys, different thicknesses and coating structures under any
adjusted to the operating condition of the boiler.
|
19 |
Schweißtechnische Automatisierung an "überschweren Rohrkonstruktionen"Wähner, Ralf 22 May 2012 (has links)
Die Herstellung großer, dickwandiger Schweißkonstruktionen ist durch einen hohen fertigungstechnischen Aufwand gekennzeichnet. Dieser erhöht sich mit zunehmender Bauteilgröße in überproportionalem Maße. Mit dem Beginn der Fertigung von Gründungsstrukturen für Offshore-Windenergieanlagen, stellt sich die Frage nach der Automatisierung schweißtechnischer Prozesse neu. Im Rahmen einer Machbarkeitsstudie wurde ein schienengeführtes traktorähnliches System entwickelt.
Der folgende Pro Engineer Anwendervortrag umfasst das Erstellen dreidimensional geformter Schienensegmente. Weiterhin wird das Gesamtsystem der schweißtechnischen Automatisierung, bestehend aus Schweißtraktor und Schiene, mit Hilfe von Gelenkverbindungen in Pro Engineer zu einer zwnagsläufigen räumlichen Kinematik verbunden. Außerdem wird die Fahrt des Schweißtraktors entlang der Schweißfugenkontur an Hand einer Animation gezeigt, welche mit Pro Engineer DAO (Design Animation Option) erstellt wurde.
|
20 |
Autonomic Computing: State of the Art - Promises - ImpactFurrer, Frank J., Püschel, Georg 09 January 2017 (has links)
Software has never been as important as today – and its impact on life, work and society is growing at an impressive rate. We are in the flow of a software-induced transformation of nearly all aspects of our way of life and work. The dependence on software has become almost total. Malfunctions and unavailability may threaten vital areas of our society, life and work at any time.
The two massive challenges of software are one hand the complexity of the software and on the other hand the disruptive environment.
Complexity of the software is a result of the size, the continuously growing functionality, the more complicated technology and the growing networking. The unfortunate consequence is that complexity leads to many problems in design, development, evolution and operation of software-systems, especially of large software-systems.
All software-systems live in an environment. Many of today’s environments can be disruptive and cause severe problems for the systems and their users. Examples of disruptions are attacks, failures of partner systems or networks, faults in communications or malicious activities.
Traditionally, both growing complexity and disruptions from the environment have been tackled by better and better software engineering. The development and operating processes are constantly being improved and more powerful engineering tools are introduced. For defending against disruptions, predictive methods – such as risk analysis or fault trees – are used. All this techniques are based on the ingenuity, experience and skills of the engineers!
However, the growing complexity and the increasing intensity of possible disruptions from the environment make it more and more questionable, if people are really able to successfully cope with this raising challenge in the future. Already, serious research suggests that this is not the case anymore and that we need assistance from the software-systems themselves!
Here enters “autonomic computing” – A promising branch of software science which enables software-systems with self-configuring, self-healing, self-optimization and self-protection capabilities. Autonomic computing systems are able to re-organize, optimize, defend and adapt themselves with no real-time human intervention. Autonomic computing relies on many branches of science – especially computer science, artificial intelligence, control theory, machine learning, multi-agent systems and more.
Autonomic computing is an active research field which currently transfers many of its results into software engineering and many applications. This Hauptseminar offered the opportunity to learn about the fascinating technology “autonomic computing” and to do some personal research guided by a professor and assisted by the seminar peers.:Introduction 5
1 What Knowledge Does a Taxi Need? – Overview of Rule Based, Model Based and
Reinforcement Learning Systems for Autonomic Computing (Anja Reusch) 11
2 Chancen und Risiken von Virtual Assistent Systemen (Felix Hanspach) 23
3 Evolution einer Microservice Architektur zu Autonomic Computing (Ilja Bauer) 37
4 Mögliche Einflüsse von autonomen Informationsdiensten auf ihre Nutzer (Jan Engelmohr) 49
5 The Benefits of Resolving the Trust Issues between Autonomic Computing Systems
and their Users (Marc Kandler) 61
|
Page generated in 0.0812 seconds