• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 187
  • 36
  • 28
  • 1
  • 1
  • Tagged with
  • 503
  • 184
  • 141
  • 74
  • 73
  • 73
  • 64
  • 61
  • 60
  • 60
  • 58
  • 57
  • 55
  • 55
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Chord - A Distributed Hash Table

Liao, Yimei 21 August 2007 (has links)
Source is converted into pdf format. An introduction to Chord Algorithm.
422

A Neural Network Model of Invariant Object Identification

Wilhelm, Hedwig 28 October 2010 (has links)
Invariant object recognition is maybe the most basic and fundamental property of our visual system. It is the basis of many other cognitive tasks, like motor actions and social interactions. Hence, the theoretical understanding and modeling of invariant object recognition is one of the central problems in computational neuroscience. Indeed, object recognition consists of two different tasks: classification and identification. The focus of this thesis is on object identification under the basic geometrical transformations shift, scaling, and rotation. The visual system can perform shift, size, and rotation invariant object identification. This thesis consists of two parts. In the first part, we present and investigate the VisNet model proposed by Rolls. The generalization problems of VisNet triggered our development of a new neural network model for invariant object identification. Starting point for an improved generalization behavior is the search for an operation that extracts images features that are invariant under shifts, rotations, and scalings. Extracting invariant features guarantees that an object seen once in a specific pose can be identified in any pose. We present and investigate our model in the second part of this thesis.
423

CNN-basierte Detektion von Geometriefeatures auf Grundlage diskreter Voxeldaten

Vogt, Lucas 26 October 2023 (has links)
Im Rahmen der additiven Fertigungsplanung bietet die geometriebasierte individuelle Fertigungsparametrisierung das Potential die Fertigungsgeschwindigkeit und -qualität weiter zu steigern. Dafür ist eine automatische Erkennung der zu fertigenden Geometriennotwendig, weshalb diese Arbeit die Eignung von faltungsbasierten künstlichen neuronalen Netzen zur Detektion von Regelgeometrien in Voxeldaten untersucht. Hierfür wird ein faltungsbasierter Detektionsalgorithmus entworfen und implementiert, welcher in der Lage ist, zylindrische, sphärische und ebene Flächen zu identifizieren. Dieser Algorithmus erreicht bei der Analyse von realen CAD-Daten eine Intersection over Union von 77,99% bzw. einen Dice-Score von 87,63 %. Dies entspricht den von vergleichbaren Algorithmen erreichten Genauigkeitswerten und bestätigt die Eignung des gewählten Ansatzes.:Kurzfassung III Abstract IV Abkürzungsverzeichnis VII Formelzeichen und Symbole VIII 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 1.3 Struktur der Arbeit 2 2 Stand der Forschung 4 2.1 Überblick CAM-Prozess 4 2.2 Geometrierepräsentationen 5 2.3 Deep Learning und faltungsbasierte neuronale Netze 9 2.3.1 Grundlagen des maschinellen Lernens 9 2.3.2 Künstliche Neuronale Netze 12 2.3.3 Faltungsbasierte neuronale Netze 15 3 Anforderungen und Konzeption 24 3.1 Vorgehensmodell und Anforderungen 24 3.2 Lösungskonzept 27 3.2.1 Struktur des Algorithmus 27 3.2.2 Versuchsplanung 31 4 Datengenerierung 32 4.1 Trainings- und Validierungsdaten 32 4.2 Testdaten 37 5 Auswahl, Training und Optimierung eines CNN-Algorithmus 39 5.1 Auswahl und Vorstellung des CNN-Algorithmus 39 5.2 Training des CNN-Algorithmus 41 5.3 Optimierung des CNN-Algorithmus 46 6 Transferlernen und Postprocessing 50 6.1 Transferlernen 50 6.1.1 Generierung von Trainings- und Validierungsdaten 51 6.1.2 Auswirkungen des Transferlernens 53 6.2 Postprocessing 55 6.2.1 Ersetzen von unsicheren Klassifizierungsergebnissen 55 6.2.2 Ersetzen von Ausreißern 57 7 Diskussion der Ergebnisse 58 7.1 Erreichte Detektionsleistung 58 7.2 Beschränkungen der Implementierung 61 8 Zusammenfassung 65 8.1 Zusammenfassung 65 8.2 Ausblick 66 Literaturverzeichnis 68 Abbildungsverzeichnis 75 Tabellenverzeichnis 77 Anlagenverzeichnis 78 Selbstständigkeitserklärung 79 / In the context of additive manufacturing planning, geometry-based individual manufacturing parameterization offers the potential to further increase manufacturing speed and quality. For this purpose, an automatic detection of the geometries to be manufactured is necessary, which is why this thesis investigates the suitability of convolution-based artificial neural networks for the detection of regular geometries in voxel data. Therefore, a convolutional-based detection algorithm is designed and implemented, which is able to identify cylindrical, spherical and planar surfaces. This algorithm achieves an intersection over union detection accuracy of 77.99% and a dice score of 87.63 %, respectively, when analyzing real CAD data. This is in line with the accuracy values achieved by comparable algorithms and confirms the suitability of the chosen approach.:Kurzfassung III Abstract IV Abkürzungsverzeichnis VII Formelzeichen und Symbole VIII 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 1.3 Struktur der Arbeit 2 2 Stand der Forschung 4 2.1 Überblick CAM-Prozess 4 2.2 Geometrierepräsentationen 5 2.3 Deep Learning und faltungsbasierte neuronale Netze 9 2.3.1 Grundlagen des maschinellen Lernens 9 2.3.2 Künstliche Neuronale Netze 12 2.3.3 Faltungsbasierte neuronale Netze 15 3 Anforderungen und Konzeption 24 3.1 Vorgehensmodell und Anforderungen 24 3.2 Lösungskonzept 27 3.2.1 Struktur des Algorithmus 27 3.2.2 Versuchsplanung 31 4 Datengenerierung 32 4.1 Trainings- und Validierungsdaten 32 4.2 Testdaten 37 5 Auswahl, Training und Optimierung eines CNN-Algorithmus 39 5.1 Auswahl und Vorstellung des CNN-Algorithmus 39 5.2 Training des CNN-Algorithmus 41 5.3 Optimierung des CNN-Algorithmus 46 6 Transferlernen und Postprocessing 50 6.1 Transferlernen 50 6.1.1 Generierung von Trainings- und Validierungsdaten 51 6.1.2 Auswirkungen des Transferlernens 53 6.2 Postprocessing 55 6.2.1 Ersetzen von unsicheren Klassifizierungsergebnissen 55 6.2.2 Ersetzen von Ausreißern 57 7 Diskussion der Ergebnisse 58 7.1 Erreichte Detektionsleistung 58 7.2 Beschränkungen der Implementierung 61 8 Zusammenfassung 65 8.1 Zusammenfassung 65 8.2 Ausblick 66 Literaturverzeichnis 68 Abbildungsverzeichnis 75 Tabellenverzeichnis 77 Anlagenverzeichnis 78 Selbstständigkeitserklärung 79
424

Nichtlineare Methoden in der trainingswissenschaftlichen Diagnostik : mit Untersuchungen aus dem Schwimmsport / Nonlinear methods for diagnostic purposes in training science

Bügner, Jörg January 2005 (has links)
<p>Die trainingswissenschaftliche Diagnostik in den Kernbereichen Training, Wettkampf und Leistungsfähigkeit ist durch einen hohen Praxisbezug, eine ausgeprägte strukturelle Komplexität und vielseitige Wechselwirkungen der sportwissenschaftlichen Teilgebiete geprägt. Diese Eigenschaften haben in der Vergangenheit dazu geführt, dass zentrale Fragestellungen, wie beispielsweise die Maximierung der sportlichen Leistungsfähigkeit, eine ökonomische Trainingsgestaltung, eine effektive Talentauswahl und -sichtung oder die Modellbildung noch nicht vollständig gelöst werden konnten. Neben den bereits vorhandenen linearen Lösungsansätzen werden in dieser Arbeit Methoden aus dem Bereich der Neuronalen Netzwerke eingesetzt. Diese nichtlinearen Diagnoseverfahren sind besonders geeignet für die Analyse von Prozessabläufen, wie sie beispielsweise im Training vorliegen.</p> <p>Im theoretischen Teil werden zunächst Gemeinsamkeiten, Abhängigkeiten und Unterschiede in den Bereichen Training, Wettkampf und Leistungsfähigkeit untersucht sowie die Brücke zwischen trainingswissenschaftlicher Diagnostik und nichtlinearen Verfahren über die Begriffe der Interdisziplinarität und Integrativität geschlagen. Angelehnt an die Theorie der Neuronalen Netze werden anschließend die Grundlagenmodelle Perzeptron, Multilayer-Perzeptron und Selbstorganisierende Karten theoretisch erläutert. Im empirischen Teil stehen dann die nichtlineare Analyse von personalen Anforderungsstrukturen, Zustände der sportlichen Form und die Prognose sportlichen Talents - allesamt bei jugendlichen Leistungsschwimmerinnen und -schwimmern - im Mittelpunkt. Die nichtlinearen Methoden werden dabei einerseits auf ihre wissenschaftliche Aussagekraft überprüft, andererseits untereinander sowie mit linearen Verfahren verglichen.</p> / <p>The diagnostic methods in training science concentrate on the core areas of training, competition, and performance. The methods commonly used are characterized by a high degree of practical applicability and distinct structural complexity. These characteristics have led to the question which scientific methods fit best for resolving problems like, for example, the optimization of athletic performance, efficient planning and monitoring of training processes, effective talent screening, selection and development, or the formation of analytical models. All these questions have not yet been answered sufficiently.</p> <p>Aside from the traditional mathematical approaches on the basis of the linear model, nonlinear methods in the field of neural networks are used in this dissertation. These nonlinear diagnostic methods are especially suitable for the analysis of coherent patterns in time series such as training processes.</p> <p>In the theoretical part of the dissertation, common aspects, mutual dependencies, and differences between training, competition, and performance are examined. In this context, a bridge is built between the diagnostic purposes in these fields and suitable nonlinear methods. Along the lines of the neural networks theory, the basic models Perceptron, Multilayer-Perceptron, and Self-Organizing Feature Maps are subsequently elucidated.</p> <p>In the empirical part of the thesis, three studies conducted with top level adolescent swimmers are presented that focus on the nonlinear analysis of personal athletic ability structures, different states of athletic shape, and the prognosis of athletic talent. The nonlinear methods are thus examined as to how worthwhile they are for analytical purposes in training science on the one hand, and they are compared to each other as well as to linear methods on the other hand.</p>
425

Durchgängige Verfolgbarkeit im Vorfeld der Softwareentwicklung von E-Government-Anwendungen : ein ontologiebasierter und modellgetriebener Ansatz am Beispiel von Bürgerdiensten / Continuous pre-requirements specification traceability for e-government : ontology based and model driven approach using the example of citizen services

Off, Thomas January 2011 (has links)
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen. / Public administration is using electronic government (e-government) application systems for several years to support their processes more intensive with modern information and communication technology than ever before. This increases and broadens the relationship between law and legislation executed by the administration on the one hand and requirements to e-government application systems used to support administrative execution on the other hand. This relationship is subject matter of pre-requirements specification traceability (pre-RS traceability). This work introduces an approach to pre-RS traceabiliy for e-government application. It combines research efforts and standards (i.e. of World Wide Web Consortium and Object Management Group) from different fields: traceability, semantic web, ontology engineering and model driven software engineering. Using this approach it is possible to add a semantic to elements of law and legislation texts using annotations. Annotation semantics is based on an ontology of public administration execution developed especially for this approach. A mapping from annotated text elements as a special kind of ontology individuals to elements of Unified Modeling Language (UML) is created using the Ontology Definition Metamodel (ODM). This mapping results in a new model type referred to as Pre-Requirements Model (PRM). This model uses elements that exist before requirements are explicitly documented in a requirements specification. Therefore it can be primary used to formalize elements and their relationships in the pre-requirements scope. Through the mapping rules of ODM it keeps a traceable relationship from each model element to its corresponding annotated text elements. PRM can also be used to model and refine elements that are not or not completely derived directly from text of law and legislation. In this work is argued that Model Driven Architecture (MDA) might profit from extending the existing model types Computation Independent Model (CIM), Platform Independent Model (PIM) and Platform Specific Model (PSM) by using a PRM. This extension leads to an Architecture that starts with a pre-requirements viewpoint before any requirements are formalized and documented in models of type CIM. It offers also the opportunity to use model transformation to create an initial CIM from PRM by allying the MOF Query View Transformation standard (QVT). Using QVT ensures the traceability of model transformation because standard enforces recording of traceability information. A Transformation from PRM to CIM creates an initial requirements specification that can be refined using common techniques, methods and tools. To bridge the semantic gap between PRM and CIM the approach follows the pattern of PIM to PSM transformation which uses the Platform Model (PM). Analogues PRM to CIM transformation uses special reference models for e-government developed in the project "E-LoGo" at university of Potsdam. By recoding traces of mapping annotation to elements in PRM and transforming elements of PRM to elements in CIM using reference models continuous pre-RS traceability can be achieved. The approach uses simple Extensible Stylesheet Language Transformations (XSLT) to create a hypertext documentation that links all relevant elements. Navigating along these links makes it possible for example to start with an annotated element of a law text and follow to all resulting requirements in a CIM. Using the opposite direction it is possible to see for each requirement from which text element of a law it is derived or even if there is no relation to law. By integrating the graphical representation of a model element this navigation can even start directly in a UML diagram. This illustrates that the approach offers vertical and horizontal traceability in forward and backward direction. Besides the obvious use cases continuous pre-requirements specification traceability offers in general (i.e. impact analysis on changes of law and legislation, consider context of a requirements when prioritizing them) is also offers the chance to create a feedback on the consequences of a change in law to existing e-government systems. As long as alternatives and the necessary scope in legislative process are still left, a feedback can be used to choose an alternative with less effort or faster implementation. For federal law it is in Germany since 2011 obligatory to make a similar estimation referred to as achievement effort (“Erfüllungsaufwand”). This work contributes to the first step of making a solid estimation of this kind of effort using pre-RS traceability.
426

Approaches to analyse and interpret biological profile data

Scholz, Matthias January 2006 (has links)
Advances in biotechnologies rapidly increase the number of molecules of a cell which can be observed simultaneously. This includes expression levels of thousands or ten-thousands of genes as well as concentration levels of metabolites or proteins. <br><br> Such Profile data, observed at different times or at different experimental conditions (e.g., heat or dry stress), show how the biological experiment is reflected on the molecular level. This information is helpful to understand the molecular behaviour and to identify molecules or combination of molecules that characterise specific biological condition (e.g., disease). <br><br> This work shows the potentials of component extraction algorithms to identify the major factors which influenced the observed data. This can be the expected experimental factors such as the time or temperature as well as unexpected factors such as technical artefacts or even unknown biological behaviour. <br><br> Extracting components means to reduce the very high-dimensional data to a small set of new variables termed components. Each component is a combination of all original variables. The classical approach for that purpose is the principal component analysis (PCA). <br><br> It is shown that, in contrast to PCA which maximises the variance only, modern approaches such as independent component analysis (ICA) are more suitable for analysing molecular data. The condition of independence between components of ICA fits more naturally our assumption of individual (independent) factors which influence the data. This higher potential of ICA is demonstrated by a crossing experiment of the model plant <i>Arabidopsis thaliana</i> (Thale Cress). The experimental factors could be well identified and, in addition, ICA could even detect a technical artefact. <br><br> However, in continuously observations such as in time experiments, the data show, in general, a nonlinear distribution. To analyse such nonlinear data, a nonlinear extension of PCA is used. This nonlinear PCA (NLPCA) is based on a neural network algorithm. The algorithm is adapted to be applicable to incomplete molecular data sets. Thus, it provides also the ability to estimate the missing data. The potential of nonlinear PCA to identify nonlinear factors is demonstrated by a cold stress experiment of <i>Arabidopsis thaliana</i>. <br><br> The results of component analysis can be used to build a molecular network model. Since it includes functional dependencies it is termed functional network. Applied to the cold stress data, it is shown that functional networks are appropriate to visualise biological processes and thereby reveals molecular dynamics. / Fortschritte in der Biotechnologie ermöglichen es, eine immer größere Anzahl von Molekülen in einer Zelle gleichzeitig zu erfassen. Das betrifft sowohl die Expressionswerte tausender oder zehntausender Gene als auch die Konzentrationswerte von Metaboliten oder Proteinen. <br><br> Diese Profildaten verschiedener Zeitpunkte oder unterschiedlicher experimenteller Bedingungen (z.B. unter Stressbedingungen wie Hitze oder Trockenheit) zeigen, wie sich das biologische Experiment auf molekularer Ebene widerspiegelt. Diese Information kann genutzt werden, um molekulare Abläufe besser zu verstehen und um Moleküle oder Molekül-Kombinationen zu bestimmen, die für bestimmte biologische Zustände (z.B.: Krankheit) charakteristisch sind. <br><br> Die Arbeit zeigt die Möglichkeiten von Komponenten-Extraktions-Algorithmen zur Bestimmung der wesentlichen Faktoren, die einen Einfluss auf die beobachteten Daten ausübten. Das können sowohl die erwarteten experimentellen Faktoren wie Zeit oder Temperatur sein als auch unerwartete Faktoren wie technische Einflüsse oder sogar unerwartete biologische Vorgänge. <br><br> Unter der Extraktion von Komponenten versteht man die Reduzierung dieser stark hoch-dimensionalen Daten auf wenige neue Variablen, die eine Kombination aus allen ursprünglichen Variablen darstellen und als Komponenten bezeichnet werden. Die Standard-Methode für diesen Zweck ist die Hauptkomponentenanalyse (PCA). <br><br> Es wird gezeigt, dass - im Vergleich zur nur die Varianz maximierenden PCA - moderne Methoden wie die Unabhängige Komponentenanalyse (ICA) für die Analyse molekularer Datensätze besser geeignet sind. Die Unabhängigkeit von Komponenten in der ICA entspricht viel besser unserer Annahme individueller (unabhängiger) Faktoren, die einen Einfluss auf die Daten ausüben. Dieser Vorteil der ICA wird anhand eines Kreuzungsexperiments mit der Modell-Pflanze <i>Arabidopsis thaliana</i> (Ackerschmalwand) demonstriert. Die experimentellen Faktoren konnten dabei gut identifiziert werden und ICA erkannte sogar zusätzlich einen technischen Störfaktor. <br><br> Bei kontinuierlichen Beobachtungen wie in Zeitexperimenten zeigen die Daten jedoch häufig eine nichtlineare Verteilung. Für die Analyse dieser nichtlinearen Daten wird eine nichtlinear erweiterte Methode der PCA angewandt. Diese nichtlineare PCA (NLPCA) basiert auf einem neuronalen Netzwerk-Algorithmus. Der Algorithmus wurde für die Anwendung auf unvollständigen molekularen Daten erweitert. Dies ermöglicht es, die fehlenden Werte zu schätzen. Die Fähigkeit der nichtlinearen PCA zur Bestimmung nichtlinearer Faktoren wird anhand eines Kältestress-Experiments mit <i>Arabidopsis thaliana</i> demonstriert. <br><br> Die Ergebnisse aus der Komponentenanalyse können zur Erstellung molekularer Netzwerk-Modelle genutzt werden. Da sie funktionelle Abhängigkeiten berücksichtigen, werden sie als Funktionale Netzwerke bezeichnet. Anhand der Kältestress-Daten wird demonstriert, dass solche funktionalen Netzwerke geeignet sind, biologische Prozesse zu visualisieren und dadurch die molekularen Dynamiken aufzuzeigen.
427

Nomadic migration : a service environment for autonomic computing on the Grid

Lanfermann, Gerd January 2002 (has links)
In den vergangenen Jahren ist es zu einer dramatischen Vervielfachung der verfügbaren Rechenzeit gekommen. Diese 'Grid Ressourcen' stehen jedoch nicht als kontinuierlicher Strom zur Verfügung, sondern sind über verschiedene Maschinentypen, Plattformen und Betriebssysteme verteilt, die jeweils durch Netzwerke mit fluktuierender Bandbreite verbunden sind. <br /> Es wird für Wissenschaftler zunehmend schwieriger, die verfügbaren Ressourcen für ihre Anwendungen zu nutzen. Wir glauben, dass intelligente, selbstbestimmende Applikationen in der Lage sein sollten, ihre Ressourcen in einer dynamischen und heterogenen Umgebung selbst zu wählen: Migrierende Applikationen suchen eine neue Ressource, wenn die alte aufgebraucht ist. 'Spawning'-Anwendungen lassen Algorithmen auf externen Maschinen laufen, um die Hauptanwendung zu beschleunigen. Applikationen werden neu gestartet, sobald ein Absturz endeckt wird. Alle diese Verfahren können ohne menschliche Interaktion erfolgen.<br /> Eine verteilte Rechenumgebung besitzt eine natürliche Unverlässlichkeit. Jede Applikation, die mit einer solchen Umgebung interagiert, muss auf die gestörten Komponenten reagieren können: schlechte Netzwerkverbindung, abstürzende Maschinen, fehlerhafte Software. Wir konstruieren eine verlässliche Serviceinfrastruktur, indem wir der Serviceumgebung eine 'Peer-to-Peer'-Topology aufprägen. Diese “Grid Peer Service” Infrastruktur beinhaltet Services wie Migration und Spawning, als auch Services zum Starten von Applikationen, zur Dateiübertragung und Auswahl von Rechenressourcen. Sie benutzt existierende Gridtechnologie wo immer möglich, um ihre Aufgabe durchzuführen. Ein Applikations-Information- Server arbeitet als generische Registratur für alle Teilnehmer in der Serviceumgebung.<br /> Die Serviceumgebung, die wir entwickelt haben, erlaubt es Applikationen z.B. eine Relokationsanfrage an einen Migrationsserver zu stellen. Der Server sucht einen neuen Computer, basierend auf den übermittelten Ressourcen-Anforderungen. Er transferiert den Statusfile des Applikation zu der neuen Maschine und startet die Applikation neu. Obwohl das umgebende Ressourcensubstrat nicht kontinuierlich ist, können wir kontinuierliche Berechnungen auf Grids ausführen, indem wir die Applikation migrieren. Wir zeigen mit realistischen Beispielen, wie sich z.B. ein traditionelles Genom-Analyse-Programm leicht modifizieren lässt, um selbstbestimmte Migrationen in dieser Serviceumgebung durchzuführen. / In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. <br /> <br /> A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. <br /> <br /> The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment.
428

Modellierung modularer Materialfluss-Systeme mit Hilfe von künstlichen neuronalen Netzen / Modelling of material flow systems with artificial neural networks

Markwardt, Ulf 23 October 2004 (has links) (PDF)
Materialfluss-Systeme für den Stückgut-Transport auf der Basis von Stetigförderern sind meist modular aufgebaut. Das Verhalten gleichartiger Materialfluss-Elemente unterscheidet sich durch technische Parameter (z.B. geometrische Größen) und durch unterschiedliche logistische Belastungen der Elemente im System. Durch die in der Arbeit getroffenen Modellannahmen werden für die Elemente nur lokale Steuerungsregeln zugelassen und für das System Blockierfreiheit vorausgesetzt. Das Verhalten eines Materialfluss-Elements hängt dann nicht mehr von Zuständen anderer Elemente des Systems ab sondern nur noch von den stochastischen Prozessen des Eintreffens von Transporteinheiten. Die Auslastung eines Elements, die Quantile der Warteschlangenlängen an seinen Eingängen und die Variationskoeffizienten seiner Abgangsströme sind statistische Kenngrößen. Sie hängen im Wesentlichen nur von der Klasse des Elements, seinen technischen Parametern, den Parametern der Eingangsströme und der lokalen Transportmatrix ab. Diese funktionellen Abhängigkeiten sind im Allgemeinen nicht analytisch handhabbar. Da diese Funktionen stetig differenzierbar und beschränkt sind und von relativ viele Eingansgrößen anhängen, sind neuronale Netze gut geeignet für numerische Näherungen. Mit Hilfe von einfachen neuronalen Netzen können die statistischen Kenngrößen numerisch approximiert werden. Aus einzelnen Teilmodellen kann ein hybrides Modell des gesamten Systems zusammengesetzt werden. Anhand von einigen Beispielen wird die Güte der Modellierung bewertet. / Material flow systems are normally built with a modular structure. The behavoir of similar elements only differs by technical parameters (e.g. geometriy), and by different logistic loads of the elements in the system. In this paper, a new model is being developed for a non-blocking system with non-global control rules. The behavior of a flow of a material flow element is assumed not to depend on the conditions of other elements of the system, but only on stochastic processes of the arrival of transportation units. The rate of utilization of an element, the quantiles of the queue lengths at its inputs, and the dispersion of its output stream are statistic characteristics. They depend only on the type of the element, its technical parameters, the parameters of the input streams, and the local transportation matrix. These functional dependencies are not analytically manageable. But due to their properties, neural nets are well suited for numeric approximations of these statistic functions. The single models can be used to compose a hybrid model of the whole system. A few examples show the quality of the new modeling technique.
429

Dynamische Neuronale Netzarchitektur für Kontinuierliches Lernen

Tagscherer, Michael 23 August 2001 (has links) (PDF)
Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells. Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden. Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess. Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme. Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt. Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage, parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen. Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben. Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. / One of the main requirements for an optimal industrial control system is the availability of a precise model of the process, e.g. for a steel rolling mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning. Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In general a neural network is a "black box". In contrast to that an ICE-network is more transparent.
430

Anwendung und Entwicklung Neuronaler Verfahren zur autonomen Prozess-Steuerung

Protzel, Peter, Lewandowski, Achim, Kindermann, Lars, Tagscherer, Michael, Herrnberger, Bärbel 09 October 2001 (has links) (PDF)
In diesem Bericht wurden die Arbeiten und Ergebnisse dargestellt, die am FORWISS im Rahmen des Verbundprojekts AENEAS im Zeitraum vom 1.10.1995 bis zum 31.12.1999 erzielt wurden. Die Forschungsziele des Vorhabens wurden durch eine industrielle Anwendung im Bereich der Stahlverarbeitung motiviert und konzentrierten sich im Wesentlichen auf die folgenden Punkte: • Modellierung von nichtlinearen und zeitvarianten Prozessen, die analytisch nicht fassbar sind und nur durch Messdaten repräsentiert werden. • Modellierung von Größen, die nicht direkt messbar sind, aber auf nichtlineare Weise von anderen, messbaren Größen abhängen. • Kombination von analytischen bzw. statistischen Modellen und Neuronalen Netzen, um die jeweiligen Vorteile der Verfahren zu vereinen. Als Ergebnis des Vorhabens wurden eine Reihe neuer Ansätze zum kontinuierlichen Lernen entwickelt, darunter eine neuartige, lebenslang adaptive Netzarchitektur mit entscheidenden Vorteilen im Bereich des kontinuierlichen Lernens im Vergleich zu allen bisher bekannten Verfahren. Zum zweiten Punkt wurde eine Theorie der Analyse iterierter Prozesse entwickelt, die auf das mathematische Problem der Lösung von Funktionswurzeln führte. Für nichtlineare Systeme gibt es keine analytischen Lösungsmöglichkeiten, daher wurden erstmals Neuronale Netze zur Lösung dieses Problems verwendet. Die Ergebnisse aller grundlagenorientierten Arbeiten flossen in die Lösung eines industriellen Anwendungsproblems ein, bei der End- und Zwischenprofile warmgewalzter Stahlbänder modelliert und prognostiziert werden sollten. Dieser Prozess ist charakterisiert durch Nichtlinearität, Zeitvarianz („Tagesform“ der Anlage) und durch die nicht direkte Messbarkeit der Zwischenprofile, die sich als inverse Iteration (Funktionswurzel) aus dem Endprofil ergeben. Dieses Problem konnte auf elegante Weise durch eine Verknüpfung von analytischen und neuronalen Ansätzen gelöst werden. Neben dem unmittelbaren Wert der Ergebnisse bei der Lösung der beispielhaften Anwendung lassen sich die entwickelten Verfahren zum kontinuierlichen Lernen und zur Analyse iterierter Prozesse auf eine Vielzahl anderer Problemstellungen verallgemeinern und stellen eine gute Basis für weitere Forschungsarbeiten dar.

Page generated in 0.2366 seconds