131 |
Einsatz des Intelligent Cluster Index in verteilten, dezentralen NoSQL-SystemenMorgenstern, Johannes 07 February 2019 (has links)
Sowohl im Zusammenhang mit der durch den Menschen verursachten Erzeugung von Daten, als auch durch maschinell herbeigeführte Kommunikationsaufwände besteht der Wunsch, aus diesen Daten unter verschiedenen Gesichtspunkten Informationen zu gewinnen. Außerdem wächst die Menge der auszuwertenden Daten stetig. Als technische Grundlage zur Erfassung und Verarbeitung dieser Datenaufkommen werden skalierbare Systemkonzepte genutzt, die Datenwachstum durch inhärente Skalierbarkeit begegnen. Unter analytischen Gesichtspunkten handelt es sich um BigData-Systemkonzepte, deren technische Basis häufig durch nichtrelationale NoSQL-Systeme gebildet wird.
In dieser Arbeit werden auf Basis der Growing Neural Gas, einem künstlichen Neuronalen Netz, zwei verteilte Algorithmen zum Erlernen inhaltlicher Merkmale für die Datenorganisation mit einem inhaltsorientierten Index betrachtet. Des Weiteren wird der inhaltsorientierte Index ICIx für Column Family Stores adaptiert, um die Informationsgewinnung in verteilten, dezentralen Systemen auch nach Merkmalen inhaltlicher Ähnlichkeit zu ermöglichen.
Die durchgeführten Versuche zeigen, dass die verteilten Varianten des Growing Neural Gas Daten ohne Qualitätsverlust repräsentieren können. Außerdem ergibt die Anwendung der durch dieses künstliche Neuronale Netz organisierten Daten, dass die betrachtete Indexstruktur auch in verteilten, dezentralen Systemen den Datenzugriff gegenüber vergleichbaren Indizes beschleunigt. / Both in the context of man-made data generation and machine-generated communication efforts, there is a desire to extract information from these data from a variety of perspectives. In addition, the amount of data to be evaluated steadily increases. As a technical basis for the collection and processing of this data volume, scalable system concepts are used that counteract data growth through inherent scalability. From an analytical point of view, these are BigData system concepts whose technical basis is often formed by non-relational NoSQL systems.
In this work, based on the Growing Neural Gas, an artificial neural network, two distributed algorithms for the acquisition of content characteristics for data organization with a content-oriented index are considered. Furthermore, the content-oriented index ICIx for Column Family Stores will be adapted to enable information gathering in distributed, decentralized systems, even in terms of similarity in content.
The experiments show that the distributed variants of Growing Neural Gas can represent data without loss of quality. In addition, the application of the data organized by this artificial neural network results in the fact that the index structure in question also accelerates the data access in comparison to comparable indices in distributed, decentralized systems.
|
132 |
Development of Prediction Systems Using Artificial Neural Networks for Intelligent Spinning MachinesFarooq, Assad 06 May 2010 (has links)
The optimization of the spinning process and adjustment of the machine settings involve “Trial and Error” method resulting in the wasting of production time and material. This situation becomes worse in the spinning mills where the speed and material changes are frequent. This research includes the use of artificial neural networks to provide the thinking ability to the spinning machines to improve the yarn spinning process. Draw frame, being the central part of the spinning preparation chain and last machine to rectify the variations in the fed slivers is the main focus of the research work. Artificial neural network have been applied to the leveling action point at auto-leveler draw frame and search range of leveling action point has been considerably reduced. Moreover, the sliver and yarn characteristics have been predicted on the basis of draw frame settings using the artificial neural networks. The results of present research work can help the spinning industry in the direction of limiting of “Trial and Error” method, reduction of waste and cutting down the time losses associated with the optimizing of machines. As a vision for the future research work the concept of intelligent spinning machines has also been proposed. / Die Optimierung des Spinnprozesses und die Maschineneinstellung erfolgen häufig mittels „Trial und Error“-Methoden, die mit einem hohen Aufwand an Produktionszeit und Material einhergehen. Diese Situation ist für Spinnereien, in denen häufige Wechsel des eingesetzten Materials oder der Produktionsgeschwindigkeit nötig sind, besonders ungünstig. Die vorliegende Arbeit zeigt das Potenzial Neuronaler Netze, um die Spinnmaschine zum „Denken“ zu befähigen und damit die Garnherstellung effektiver zu machen. Die Strecke ist der zentrale Teil der Spinnereivorbereitungskette und bietet die letzte Möglichkeit, Inhomogenitäten im Faserband zu beseitigen. Der Fokus der Arbeit richtet sich deshalb auf diese Maschine. Künstlich Neuronale Netze werden an der Strecke zur Bestimmung des Regeleinsatzpunktes genutzt, womit eine beträchtliche Reduzierung des Aufwands für die korrekte Festlegung des Regeleinsatzpunkts erreicht wird. Darüber hinaus können mit Hilfe der Neuronalen Netze die Band- und Garneigenschaften auf Basis der Streckeneinstellungen vorausbestimmt werden. Die Resultate der vorliegenden Arbeit machen „Trial und Error“-Methoden überflüssig, reduzieren den Ausschuss und verringern die Zeitverluste bei der Maschinenoptimierung. Als Zukunftsvision wird eine Konzeption für intelligente Spinnmaschinen vorgestellt.
|
133 |
Alternative Analysemöglichkeiten geographischer Daten in der Kartographie mittels Self-Organizing MapsKlammer, Ralf 21 July 2010 (has links)
Die Kartographie ist eine Wissenschaft, die in ihrem Charakter starke interdisziplinäre Züge aufweist. Sie zeigt sich in den verschiedensten Facetten und wird darum in den unterschiedlichsten Wissenschaften angewandt. Markantester Charakter ist, schon per Definition, die Modellierung von geowissenschaftlichen Ereignissen und Sachverhalten. „A unique facility for the creation and manipulation of visual or virtual representations of geospace – maps – to permit the exploration, analysis, understanding and communication of information about that space.“(ICA 2003) Aus dieser Definition wird die Charakteristik einer Kommunikationswissenschaft (Brassel) deutlich. Gerade seit dem Paradigmenwechsel der 1970er Jahre fließen zahlreiche weitere Aspekte wie Informatik, Semiotik und Psychologie in das Verständnis von Kartographie ein. Dadurch wird die Karte nicht mehr als reines graphisches Mittel verstanden, sondern als Träger und Übermittler von Informationen verstanden. Der Kartennutzer und dessen Verständnis von Karten rücken dabei immer weiter in den Vordergrund und werden „Ziel“ der kartographischen Verarbeitung. Aus diesem Verständnis heraus, möchte ich in der folgenden Arbeit einen relativ neuen Einfluss und Aspekt der Kartographie vorstellen. Es handelt sich um das Modell der Self-Organizing Maps (SOM), welches erstmalig Anfang der 1980er Jahre von Teuvo Kohonen vorgestellt wurde und deshalb auch, von einigen Autoren, als Kohonenmaps bezeichnet wird. Dem Typus nach, handelt es sich dabei um künstliche neuronale Netze, welche dem Nervensystem des menschlichen Gehirns nachempfunden sind und damit allgemein als eine Art selbständiger, maschineller Lernvorgang angesehen werden können. Im Speziellen sind Self-Organizing Maps ein unüberwachtes Lernverfahren, das in der Lage ist völlig unbekannte Eingabewerte zu erkennen und zu verarbeiten. Durch diese Eigenschaft eignen sie sich als optimales Werkzeug für Data Mining sowie zur Visualisierung von hochdimensionalen Daten. Eine Vielzahl von Wissenschaftlern hat diesen Vorteil bereits erkannt und das Modell in ihre Arbeit einbezogen oder auf dessen Verwendbarkeit analysiert. Deshalb möchte in dieser Arbeit, einige dieser Verwendungsmöglichkeiten und den daraus resultierenden Vorteil für die Kartographie aufzeigen.:1.) Einleitung ...........................................................................................2
2.) Aufbau und Funktionsweise von SOM ............................................ 5
2.1.) Was sind Self-Organizing Maps? ................................................5
2.2.) Funktionsweise ............................................................................7
2.3.) Visualisierung des trainierten Kohonen-Netz .......................... 11
2.4.) Software ..................................................................................... 12
3. Möglichkeiten für die Kartographie................................................ 14
3.1 Geowissenschaftliches Data Mining ........................................... 15
3.2 Visualisierung von Daten............................................................. 17
4. explorative Datenanalyse geographischer Daten .......................... 19
4.1 SOM als Geovisualisierung .......................................................... 19
4.1.1 U-Matrix-Darstellung .............................................................22
4.1.2 Projektionen (Netzdarstellungen) ........................................26
4.1.3 2D & 3D-Plots .........................................................................28
4.1.4 Komponentenebenen ...........................................................29
4.2 Geo-SOM & andere Möglichkeiten zur Verarbeitung von
geowissenschaftlichen Daten ................................................... 32
4.2.1 Hierarchische SOMs ...............................................................33
4.2.2 Geo-enforced SOM ................................................................34
4.2.3 Geo-SOM ................................................................................35
4.3 SOM & GIS .................................................................................... 38
5. Datenverarbeitende Anwendungen ............................................... 40
5.1 Klassifizierung von Fernerkundungsdaten................................. 40
5.2 Kantendetektion in Satellitenbildern......................................... 43
5.3 Auswertung von Zeitreihen & Monitoring................................. 47
5.4 Klassifikation von SAR-Daten...................................................... 49
5.5 Generalisierung............................................................................ 50
5.6 Problem des Handlungsreisenden (Travelling Salesman
Problem)..................................................................................... 52
6. SOM als Kartenmetapher zur Visualisierung nicht-geographischer
Daten .............................................................................................. 54
7. Zusammenfassung............................................................................ 62
X. Quellenverzeichnis ........................................................................... 63
X.I Literaturnachweise ....................................................................... 63
X.II Lehrinhalte aus dem Internet ..................................................... 69
X.III Softwarelösungen ...................................................................... 69
|
134 |
Automated Theorem Proving for General Game PlayingHaufe, Sebastian 22 June 2012 (has links)
While automated game playing systems like Deep Blue perform excellent within their domain, handling a different game or even a slight change of rules is impossible without intervention of the programmer. Considered a great challenge for Artificial Intelligence, General Game Playing is concerned with the development of techniques that enable computer programs to play arbitrary, possibly unknown n-player games given nothing but the game rules in a tailor-made description language. A key to success in this endeavour is the ability to reliably extract hidden game-specific features from a given game description automatically. An informed general game player can efficiently play a game by exploiting structural game properties to choose the currently most appropriate algorithm, to construct a suited heuristic, or to apply techniques that reduce the search space. In addition, an automated method for property extraction can provide valuable assistance for the discovery of specification bugs during game design by providing information about the mechanics of the currently specified game description. The recent extension of the description language to games with incomplete information and elements of chance further induces the need for the detection of game properties involving player knowledge in several stages of the game.
In this thesis, we develop a formal proof method for the automatic acquisition of rich game-specific invariance properties. To this end, we first introduce a simple yet expressive property description language to address knowledge-free game properties which may involve arbitrary finite sequences of successive game states. We specify a semantic based on state transition systems over the Game Description Language, and develop a provably correct formal theory which allows to show the validity of game properties with respect to their semantic across all reachable game states. Our proof theory does not require to visit every single reachable state. Instead, it applies an induction principle on the game rules based on the generation of answer set programs, allowing to apply any off-the-shelf answer set solver to practically verify invariance properties even in complex games whose state space cannot totally be explored. To account for the recent extension of the description language to games with incomplete information and elements of chance, we correctly extend our induction method to properties involving player knowledge. With an extensive evaluation we show its practical applicability even in complex games.
|
135 |
Development of a Class Framework for Flood ForecastingKrauße, Thomas January 2007 (has links)
Aus der Einleitung:
The calculation and prediction of river flow is a very old problem. Especially extremely high values of the runoff can cause enormous economic damage. A system which precisely predicts the runoff and warns in case of a flood event can prevent a high amount of the damages.
On the basis of a good flood forecast, one can take action by preventive methods and warnings. An efficient constructional flood retention can reduce the effects of a flood event enormously.With a precise runoff prediction with longer lead times (>48h), the dam administration is enabled to give order to their gatekeepers to empty dams and reservoirs very fast, following a smart strategy. With a good timing, that enables the dams later to store and retain the peak of the flood and to reduce all effects of damage in the downstream. A warning of people in possible flooded areas with greater lead time, enables them to evacuate not fixed things like cars, computers, important documents and so on. Additionally it is possible to use the underlying rainfall-runoff model to perform runoff simulations to find out which areas are threatened at which precipitation events and associated runoff in the river. Altogether these methods can avoid a huge amount of economic damage.:List of Symbols and Abbreviations S. III
1 Introduction S. 1
2 Process based Rainfall-Runoff Modelling S. 5
2.1 Basics of runoff processes S. 5
2.2 Physically based rainfall-runoff and hydrodynamic river models S. 15
3 Portraying Rainfall-Runoff Processes with Neural Networks S. 21
3.1 The Challenge in General S. 22
3.2 State-of-the-art Approaches S. 24
3.3 Architectures of neural networks for time series prediction S. 26
4 Requirements specification S. 33
5 The PAI-OFF approach as the base of the system S. 35
5.1 Pre-Processing of the Input Data S. 37
5.2 Operating and training the PoNN S. 47
5.3 The PAI-OFF approach - an Intelligent System S. 52
6 Design and Implementation S. 55
6.1 Design S. 55
6.2 Implementation S. 58
6.3 Exported interface definition S. 62
6.4 Displaying output data with involvement of uncertainty S. 64
7 Results and Discussion S. 69
7.1 Evaluation of the Results S. 69
7.2 Discussion of the achieved state S. 75
8 Conclusion and FutureWork S. 77
8.1 Access to real-time meteorological input data S. 77
8.2 Using further developed prediction methods S. 79
8.3 Development of a graphical user interface S. 80
Bibliography S. 83
|
136 |
Künstliche neuronale Netze zur Beschreibung der hydrodynamischen Prozesse für den Hochwasserfall unter Berücksichtigung der Niederschlags-Abfluß-Prozesse im ZwischeneinzugsgebietPeters, Ronny 08 October 2007 (has links)
Aus den Mängeln bisher verwendeter Modelle zur Abbildung des Wellenablaufes zu Prognosezwecken im Hochwasserfall wird in dieser Arbeit eine Methodik entwickelt, die die Schnelligkeit und Robustheit künstlicher neuronaler Netze mit der Zuverlässigkeit hydrodynamisch-numerischer Modellierung verbindet. Ein eindimensionales hydrodynamisches Modell beinhaltet die genaue Kenntnis der Geometrie des Flußlaufes und der Vorländer und berücksichtigt die physikalischen Prozesse des Wellenablaufes. Mit diesem deterministischen Modell ist eine Grundlage für umfangreiche Szenarienrechnungen zur Erstellung einer Datenbasis geschaffen, die die weite Spanne theoretisch möglicher Hochwasserereignisse abdeckt. Mit dieser Datenbasis können dann künstliche neuronale Netze trainiert werden, die auch im Bereich extremer Hochwasserereignisse zuverlässige Prognosen liefern. In dieser Arbeit werden mit Multilayer-Feedforward-Netzen und selbstorganisierenden Merkmalskarten zwei Netztypen als Vertreter überwacht und unüberwacht lernender neuronaler Netze auf ihre diesbezügliche Eignung untersucht und beurteilt. Desweiteren wurde die Methodik auf die Einbeziehung von Merkmalen für die Niederschlags-Abfluß-Prozesse im unbeobachteten Zwischengebiet zur Berücksichtigung lateraler Zuflüsse entlang der modellierten Fließstrecken erweitert. Die Datenbasis wurde hierfür mit einem Niederschlags-Abfluß-Modell erstellt. Ein Hauptschwerpunkt liegt in der Überführung der Eingangsdaten in charakteristische Merkmale zur Abbildung der Zielgrößen, in diesem Falle des Durchflusses und Wasserstandes am Zielpegel. So dienen die deterministischen Modelle nicht nur zur Erstellung einer verläßlichen Datenbasis für das Training der Netze, sondern ermöglichen – sowohl für die Niederschlags-Abfluß-Prozesse, als auch für die hydrodynamischen Prozesse – Analysen betreffs der Sensitivität der Modellergebnisse infolge von Änderungen der Inputdaten. Mit Hilfe dieser Analysen werden wichtige Informationen zur Findung der relevanten Merkmale erlangt. Ein Schlüssel für die erfolgreiche Eingliederung der Niederschlags-Abfluß-Prozesse in das Prognosenetz ist die Einführung eines einzigen Zustandsmerkmals, welches die gesamte meteorologische Vorgeschichte des Ereignisses zur Charakterisierung des Gebietszustandes vereinigt. Die entwickelte Methodik wurde anhand des Einzugsgebietes der Freiberger Mulde erfolgreich getestet.
|
137 |
Künstliche Intelligenz in der Hochschullehre: Empirische Untersuchungen zur KI-Akzeptanz von Studierenden an (sächsischen) HochschulenStützer, Cathleen M. 04 March 2022 (has links)
Inwieweit KI das neuartige universitäre Lehren und Lernen wirksam begleiten kann, wird im BMBF-Verbundprojekt 'tech4comp: Personalisierte Kompetenzentwicklung durch skalierbare Mentoringprozesse' untersucht. Gemeinsam beforscht man soziotechnische Artefakte für personalisiertes digital-gestütztes Mentoring für Studierende. Hierzu werden u.a. Rahmenbedingungen und (soziale) Kontextfaktoren erforscht, um die Implementierung von KI in der Hochschulbildung zu unterstützen. Es wird davon ausgegangen, dass unabhängig von der Art der Technologie und vom pandemischen Kontext, insbesondere die Akzeptanz und Bereitschaft der beteiligten Stakeholder zum erfolgreichen Einsatz intelligenter Bildungstechnologien beiträgt.
Das ZQA/KfBH der TU Dresden widmet sich unter der Leitung von Dr. Cathleen M. Stützer im Forschungsprojekt der Elaboration von Handlungsfeldern, die sich aus einer soziotechnischen Beforschung von KI in der Hochschulbildung ergeben. Fallstudien hierzu stellen sich u. a. Fragen zu Gelingensbedingungen und Wirksamkeit digitaler Hochschulbildung, um (prospektiv) eine erfolgreiche Implementierung KI-gestützter adaptiver Mentoringsysteme mit evidenten Forschungsberichten zu unterstützen.:Vorwort & Danksagung
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
1. Einleitung
2. Methodik
3. Ergebnisse
4. Implikationen
4.1 Einflussfaktoren und Gelingensbedingungen der KI-Akzeptanz
4.2 Handlungsempfehlungen
5. Zusammenfassung und Fazit
6. Limitationen
7. Literaturverzeichnis
Anhang / The extent to which AI can effectively accompany new types of university teaching and learning is being investigated in the BMBF joint project 'tech4comp: Personalised competence development through scalable mentoring processes'. Together, they are researching socio-technical artefacts for personalised digitally-supported mentoring for students. For this purpose, framework conditions and (social) contextual factors, among others, are being researched in order to support the implementation of AI in higher education. It is assumed that regardless of the type of technology and the pandemic context, the acceptance and willingness of the stakeholders involved in particular contributes to the successful use of intelligent educational technologies.
Under the direction of Dr. Cathleen M. Stützer, the ZQA/KfBH at TU Dresden is dedicated to the elaboration of fields of action resulting from socio-technical research on AI in higher education. Case studies on this topic address questions such as the conditions for success and the effectiveness of digital higher education in order to (prospectively) support the successful implementation of AI-supported adaptive mentoring systems with evident research reports.:Vorwort & Danksagung
Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungsverzeichnis
1. Einleitung
2. Methodik
3. Ergebnisse
4. Implikationen
4.1 Einflussfaktoren und Gelingensbedingungen der KI-Akzeptanz
4.2 Handlungsempfehlungen
5. Zusammenfassung und Fazit
6. Limitationen
7. Literaturverzeichnis
Anhang
|
138 |
Medienpädagogische Analyse des Films „Ex Machina“ in Bezug auf TranshumanismusMeyer, Anne-Christin 31 August 2018 (has links)
Viele Wissenschaftler_innen glauben daran, dass eines Tages möglich sein wird, was bisher nur die Filmindustrie illustriert hat: Die Entwicklung von künstlichen Menschenwesen, die dem biologischen Homo Sapiens weit überlegen sind. Doch obwohl intelligente Roboter gegenwärtig nur auf der Leinwand realisiert werden können - die ethischen Fragen, die sich aus ihrer Existenz ergeben, sind durchaus real und relevant: Hat ein intelligentes Computerprogramm ein Recht auf Freiheit und Selbstbestimmung?
Ein Film, der diese ethischen Fragen aufwirft und zudem eine hohe filmästhetische Qualität aufweist ist „Ex_Machina“ von Alexander Garland. In der folgenden Arbeit wird der Film medienpädagogisch analysiert und herausgestellt, inwiefern er für Jugendliche geeignet ist und ebenjene wichtigen ethischen Fragen thematisiert, welche für die heranwachsende Generation in ihrer immer technologischer werdenden Umwelt von großer Bedeutung sind.
|
139 |
Online-Debatten mit Künstlicher Intelligenz verbessernGeißler, Holger 16 December 2019 (has links)
Die zugrundeliegende Kommunikationsform bei Online-Debatten wie Chats und Forendiskussionen ist die computervermittelte Kommunikation. Der Begriff bezeichnet vielfältige Kommunikationsformen, denen gemein ist, dass jeweils ein Computer als medialer Bedeutungsvermittler in die Kommunikation eingebunden ist. Die Informationsvermittlung durch computervermittelte Kommunikation ist damit im Vergleich zu anderen Kommunikationsformen wie der persönlichen Kommunikation stark eingeschränkt (Taddicken, 2008, 30ff.). Dies hat den Effekt, dass Online-Diskussionen im Vergleich zu persönlichen Diskussionen mit etlichen Schwierigkeiten zu kämpfen haben: Online-Diskussionen werden schnell unübersichtlich, sie drehen sich im Kreis, Argumente wiederholen sich, man redet aneinander vorbei, und gemeinsame Entscheidungen oder Kompromisse werden selten ausgehandelt. Soziale Normen rücken in den Hintergrund, Beleidigungen in den Vordergrund – vor allem bei Teilnehmern, die sich nicht persönlich kennen. Diese Schwierigkeiten und die vom Gesetzgeber auferlegte Haftung für Betreiber von Websites haben dazu geführt, dass viele Kommentarfunktionen auf Seiten wie z. B. der Tagesschau, der Deutsche Welle oder des Sterns ganz oder teilweise abgeschaltet wurden (u. a. Pohl, 2018). [... aus Punkt 1]
|
140 |
Konstruktionslösungen mit Hilfe von Künstlicher IntelligenzGründer, Willi, Polyakov, Denis 03 January 2020 (has links)
Im Rahmen des Artikels wird ein Ansatz für einen 'intellektuellen Konstruktionsassistenten' auf der Basis digitalisierter Erfahrung vorgeschlagen. Diese an die analytischen und numerischen Verfahren anknüpfenden Assistenten werden unter Verwendung von Methoden der Künstlichen Intelligenz erzeugt. Sie sollen bereits bekannte Wissenselemente und Erfahrungen aufnehmen und durch eine fortgesetzte Spiegelung an der Realität fortschreiben, ohne dass eine aufwendige Algorithmenbildung und zeitraubende Numerik den Transfer neuer, oftmals inhärenter Erkenntnisse in die tägliche Praxis und damit das Qualitätsmanagement behindert. Wissensunterschiede zwischen Abteilungen können auf diese Weise schnell beseitigt und Bildungsunterschiede zwischen Mitarbeitern ausgeglichen werden. Andererseits kann hiermit in den Unternehmen aber auch die Abbildung besonderer Stärken durch einen automatischen Abgleich gleichgelagerter Konstruktionen vorangetrieben werden. [... aus der Einleitung]
|
Page generated in 0.0957 seconds