• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 250
  • 187
  • 36
  • 28
  • 1
  • 1
  • Tagged with
  • 502
  • 183
  • 140
  • 73
  • 72
  • 72
  • 64
  • 61
  • 60
  • 60
  • 58
  • 57
  • 55
  • 55
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Chord - A Distributed Hash Table

Liao, Yimei 21 August 2007 (has links)
Source is converted into pdf format. An introduction to Chord Algorithm.
422

A Neural Network Model of Invariant Object Identification

Wilhelm, Hedwig 28 October 2010 (has links)
Invariant object recognition is maybe the most basic and fundamental property of our visual system. It is the basis of many other cognitive tasks, like motor actions and social interactions. Hence, the theoretical understanding and modeling of invariant object recognition is one of the central problems in computational neuroscience. Indeed, object recognition consists of two different tasks: classification and identification. The focus of this thesis is on object identification under the basic geometrical transformations shift, scaling, and rotation. The visual system can perform shift, size, and rotation invariant object identification. This thesis consists of two parts. In the first part, we present and investigate the VisNet model proposed by Rolls. The generalization problems of VisNet triggered our development of a new neural network model for invariant object identification. Starting point for an improved generalization behavior is the search for an operation that extracts images features that are invariant under shifts, rotations, and scalings. Extracting invariant features guarantees that an object seen once in a specific pose can be identified in any pose. We present and investigate our model in the second part of this thesis.
423

CNN-basierte Detektion von Geometriefeatures auf Grundlage diskreter Voxeldaten

Vogt, Lucas 26 October 2023 (has links)
Im Rahmen der additiven Fertigungsplanung bietet die geometriebasierte individuelle Fertigungsparametrisierung das Potential die Fertigungsgeschwindigkeit und -qualität weiter zu steigern. Dafür ist eine automatische Erkennung der zu fertigenden Geometriennotwendig, weshalb diese Arbeit die Eignung von faltungsbasierten künstlichen neuronalen Netzen zur Detektion von Regelgeometrien in Voxeldaten untersucht. Hierfür wird ein faltungsbasierter Detektionsalgorithmus entworfen und implementiert, welcher in der Lage ist, zylindrische, sphärische und ebene Flächen zu identifizieren. Dieser Algorithmus erreicht bei der Analyse von realen CAD-Daten eine Intersection over Union von 77,99% bzw. einen Dice-Score von 87,63 %. Dies entspricht den von vergleichbaren Algorithmen erreichten Genauigkeitswerten und bestätigt die Eignung des gewählten Ansatzes.:Kurzfassung III Abstract IV Abkürzungsverzeichnis VII Formelzeichen und Symbole VIII 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 1.3 Struktur der Arbeit 2 2 Stand der Forschung 4 2.1 Überblick CAM-Prozess 4 2.2 Geometrierepräsentationen 5 2.3 Deep Learning und faltungsbasierte neuronale Netze 9 2.3.1 Grundlagen des maschinellen Lernens 9 2.3.2 Künstliche Neuronale Netze 12 2.3.3 Faltungsbasierte neuronale Netze 15 3 Anforderungen und Konzeption 24 3.1 Vorgehensmodell und Anforderungen 24 3.2 Lösungskonzept 27 3.2.1 Struktur des Algorithmus 27 3.2.2 Versuchsplanung 31 4 Datengenerierung 32 4.1 Trainings- und Validierungsdaten 32 4.2 Testdaten 37 5 Auswahl, Training und Optimierung eines CNN-Algorithmus 39 5.1 Auswahl und Vorstellung des CNN-Algorithmus 39 5.2 Training des CNN-Algorithmus 41 5.3 Optimierung des CNN-Algorithmus 46 6 Transferlernen und Postprocessing 50 6.1 Transferlernen 50 6.1.1 Generierung von Trainings- und Validierungsdaten 51 6.1.2 Auswirkungen des Transferlernens 53 6.2 Postprocessing 55 6.2.1 Ersetzen von unsicheren Klassifizierungsergebnissen 55 6.2.2 Ersetzen von Ausreißern 57 7 Diskussion der Ergebnisse 58 7.1 Erreichte Detektionsleistung 58 7.2 Beschränkungen der Implementierung 61 8 Zusammenfassung 65 8.1 Zusammenfassung 65 8.2 Ausblick 66 Literaturverzeichnis 68 Abbildungsverzeichnis 75 Tabellenverzeichnis 77 Anlagenverzeichnis 78 Selbstständigkeitserklärung 79 / In the context of additive manufacturing planning, geometry-based individual manufacturing parameterization offers the potential to further increase manufacturing speed and quality. For this purpose, an automatic detection of the geometries to be manufactured is necessary, which is why this thesis investigates the suitability of convolution-based artificial neural networks for the detection of regular geometries in voxel data. Therefore, a convolutional-based detection algorithm is designed and implemented, which is able to identify cylindrical, spherical and planar surfaces. This algorithm achieves an intersection over union detection accuracy of 77.99% and a dice score of 87.63 %, respectively, when analyzing real CAD data. This is in line with the accuracy values achieved by comparable algorithms and confirms the suitability of the chosen approach.:Kurzfassung III Abstract IV Abkürzungsverzeichnis VII Formelzeichen und Symbole VIII 1 Einleitung 1 1.1 Motivation 1 1.2 Zielstellung 2 1.3 Struktur der Arbeit 2 2 Stand der Forschung 4 2.1 Überblick CAM-Prozess 4 2.2 Geometrierepräsentationen 5 2.3 Deep Learning und faltungsbasierte neuronale Netze 9 2.3.1 Grundlagen des maschinellen Lernens 9 2.3.2 Künstliche Neuronale Netze 12 2.3.3 Faltungsbasierte neuronale Netze 15 3 Anforderungen und Konzeption 24 3.1 Vorgehensmodell und Anforderungen 24 3.2 Lösungskonzept 27 3.2.1 Struktur des Algorithmus 27 3.2.2 Versuchsplanung 31 4 Datengenerierung 32 4.1 Trainings- und Validierungsdaten 32 4.2 Testdaten 37 5 Auswahl, Training und Optimierung eines CNN-Algorithmus 39 5.1 Auswahl und Vorstellung des CNN-Algorithmus 39 5.2 Training des CNN-Algorithmus 41 5.3 Optimierung des CNN-Algorithmus 46 6 Transferlernen und Postprocessing 50 6.1 Transferlernen 50 6.1.1 Generierung von Trainings- und Validierungsdaten 51 6.1.2 Auswirkungen des Transferlernens 53 6.2 Postprocessing 55 6.2.1 Ersetzen von unsicheren Klassifizierungsergebnissen 55 6.2.2 Ersetzen von Ausreißern 57 7 Diskussion der Ergebnisse 58 7.1 Erreichte Detektionsleistung 58 7.2 Beschränkungen der Implementierung 61 8 Zusammenfassung 65 8.1 Zusammenfassung 65 8.2 Ausblick 66 Literaturverzeichnis 68 Abbildungsverzeichnis 75 Tabellenverzeichnis 77 Anlagenverzeichnis 78 Selbstständigkeitserklärung 79
424

Hernienreparationen mit Netzprothesen klinische und experimentelle Untersuchungen

Zieren, Jürgen 16 March 2001 (has links)
In einer prospektiv-randomisierten klinischen Studie zur Leistenhernienreparation wurde die konventionelle Shouldice Operation mit den spannungsfreien Verfahren durch Netzimplantation in endoskopischer (transabdominelle praeperitoneale Netzplastik, TAPP) und offener Technik (Plug und Patch Reparation; PP) verglichen. Bezogen auf das Hauptzielkriterium postoperative Schmerzen ergaben beide spannungsfreie Verfahren (TAPP, PP) signifikant guenstigere Ergebnisse als die Shouldice Operation. Bei vergleichbarer Komplikationsrate war die Dauer postoperativer Einschraenkungen bei den spannungsfreien Verfahren ebenfalls signifikant kuerzer als nach Shouldice Operation. Zur Verbesserung der fuer die spannungsfreie Reparation erforderlichen Netzimplantate wurde in einer Tierstudie versucht, die bislang durch Resorption ungenuegende mechanische Stabilitaet eines resorbierbaren Polyglycolsaeure-Netzes durch Zugabe von Fibrinkleber bzw. humanen thrombozytaeren Wachstumsfaktoren zu verbessern. Hierdurch gelang ein signifikanter Anstieg der mechanischen Stabilitaet, so daß in dem verwendeten Tiermodell keine Herniationen auftraten. / In a prospective-randomized study conventional Shouldice operation was compared with tension-free procedures using mesh implantation in endoscopic (transabdominal preperitoneal mesh repair, TAPP) and open technique (Plug and patch repair; PP) for inguinal hernia repair. Regarding the mean end point postoperative pain both tension-free procedures (TAPP, PP) revealed significantly better results than Shouldice operation. Complications were comparable between the groups but duration of postoperative restrictions was significantly shorter after both tension-free procedures. To improve mesh quality for tension-free hernia repair an animal experiment was performed using a resorbable polyglycolic acid mesh. Despite good incorporation this mesh shows insufficient tensile strength due to absorption. Application of fibrin glue or platelet releasates significantly improve the mechanical stability of the repair protecting against herniation in this animal model.
425

Vernetzung als kulturelles Paradigma

Koubek, Jochen 10 February 2003 (has links)
Der Internet-Boom am Ende des 20. Jahrhunderts wurde von zahllosen Veröffentlichung begleitet, in denen Auswirkungen der globalen Vernetzung auf Kultur und Gesellschaft, auf öffentliches und privates Leben beschrieben wurden. Die Dissertation geht der Frage nach, wie dieses ungeheure Ausma§ kultureller Produktion zu erklären ist. Welche kulturellen Strukturen scheinen durch diese Diskursproduktion durch? Es geht um Freilegung von Produktionsbedingungen, unter denen kulturelles Handeln erst möglich wird. Als Zentrum der untersuchten Aushandlungsprozesse wird die Idee der Vernetzung in den Blick genommen. Diese entfaltet sich zwar erst seit den 90er Jahren in voller Breite, reicht historisch aber weiter zurück, im Falle des Internet bis in die 60er. Sie wirkt dabei restrukturierend auf Diskurse, soziale Gruppierungen oder die Organisation von Zeit und Raum. Vernetzung ist damit eine Wahrnehmungsdimension, die sich, katalysiert durch das Internet, zu einem kulturellen Paradigma ausgeweitet hat. / The Internet-Boom of the late 20th century was escorted by countless publications, describing the effects of a global network on culture and society, on public and private life. The thesis searches for explications for this enormous degree of cultural productions. What kind of cultural structures are revealed by this discourses? What are the conditions of cultural productions? The centre of the research is the idea of networks and meshes. Although the diffusion of this idea attained its peak in the nineties, its historical roots are to be found in the sixties. It structures discourses, social groups or the organisation of time and space. Catalysed by the Internet, networks have evolved from a dimension of perception to a cultural paradigm.
426

Network mechanisms underlying sharp wave ripples and memory replay

Chenkov, Nikolay 24 October 2017 (has links)
Komplexe Muster neuronaler Aktivität entstehen während der Sharp-wave Ripples (SWRs) im Hippocampus und während der Up States im Neokortex (Zuständen mit hoher Aktivität). Sequenzen von Verhalten, die in der Vergangenheit erlebt wurden, werden während des komplexen Musters abgespielt. Die zugrunde liegenden Mechanismen sind nicht gründlich erforscht: Wie können kleine synaptische Veränderungen die großflächige Netzwerkaktivität während des Gedächtnisabrufes und der Gedächtniskonsolidierung kontrollieren? Im ersten Teil dieser Abhandlung wird die Hypothese aufgestellt, dass eine schwache synaptische Konnektivität zwischen Hebbschen Assemblies von der bereits vorhandenen rekurrenten Konnektivität gefördert wird. Diese Hypothese wird auf folgende Weise geprüft: die vorwärts gekoppelten Assembly-Sequenzen werden in neuronale Netzwerke eingebettet, mit einem Gleichgewicht zwischen exzitatorischer und inhibitorischer Aktivität. Simulationen und analytische Berechnungen haben gezeigt, dass rekurrente Verbindungen innerhalb der Assemblies zu einer schnelleren Signalverstärkung führen, was eine Reduktion der notwendigen Verbindungen zwischen den Assemblies zur Folge hat. Diese Aktivität kann entweder von kleinen sensorisch ähnlichen Inputs hervorgerufen werden oder entsteht spontan infolge von Aktivitätsschwankungen. Globale -- möglicherweise neuromodulatorische -- Änderungen der neuronalen Erregbarkeit können daher die Netzwerkzustände steuern, die Gedächnisabruf und die Konsolidierung begünstigen. Der zweite Teil der Arbeit geht der Herkunft der SWRs nach, die in vitro beobachtet wurden. Neueste Studien haben gezeigt, dass SWR-ähnliche Erscheinungen durch optogenetische Stimulation der Subpopulationen von inhibitorischen Neuronen hervorgerufen werden können (Schlingloff et al., 2014). Um diese Ergebnisse zu erklären wird ein de-inhibierendes Schaltkreis-Modell diskutiert, das die beobachteten Populationsausbrüche generieren kann. Die Auswirkungen der pharmakologischen GABAergischen Modulatoren auf die SWR-Häufigkeit werden in vitro untersucht. Die gewonnenen Ergebnisse wurden in Rahmen des Schaltkreis-Modells analysiert. Insbesondere wird den folgenden Fragen nachgegangen: Wie unterdrückt Gabazine, ein GABA_A-Rezeptor-Antagonist, die Entwicklung von SWRs? Wird das Zeitintervall zwischen SWRs durch die Dynamik der GABA_B Rezeptoren moduliert? / Complex patterns of neural activity appear during up-states in the neocortex and sharp-wave ripples (SWRs) in the hippocampus, including sequences that resemble those during prior behavioral experience. The mechanisms underlying this replay are not well understood. How can small synaptic footprints engraved by experience control large-scale network activity during memory retrieval and consolidation? In the first part of this thesis, I hypothesise that sparse and weak synaptic connectivity between Hebbian assemblies are boosted by pre-existing recurrent connectivity within them. To investigate this idea, sequences of assemblies connected in a feedforward manner are embedded in random neural networks with a balance of excitation and inhibition. Simulations and analytical calculations show that recurrent connections within assemblies allow for a fast amplification of signals that indeed reduces the required number of inter-assembly connections. Replay can be evoked by small sensory-like cues or emerge spontaneously by activity fluctuations. Global--potentially neuromodulatory--alterations of neuronal excitability can switch between network states that favor retrieval and consolidation. The second part of this thesis investigates the origin of the SWRs observed in in-vitro models. Recent studies have demonstrated that SWR-like events can be evoked after optogenetic stimulation of subpopulations of inhibitory neurons (Schlingloff et al., 2014; Kohus et al., 2016). To explain these results, a 3-population model is discussed as a hypothetical disinhibitory circuit that could generate the observed population bursts. The effects of pharmacological GABAergic modulators on the SWR incidence in vitro are analysed. The results are discussed in the light of the proposed disinhibitory circuit. In particular, how does gabazine, a GABA_A receptor antagonist, suppress the generation of SWRs? Another explored question is whether the slow dynamics of GABA_B receptors is modulating the time scale of the inter-event intervals.
427

Nichtlineare Methoden in der trainingswissenschaftlichen Diagnostik : mit Untersuchungen aus dem Schwimmsport / Nonlinear methods for diagnostic purposes in training science

Bügner, Jörg January 2005 (has links)
<p>Die trainingswissenschaftliche Diagnostik in den Kernbereichen Training, Wettkampf und Leistungsfähigkeit ist durch einen hohen Praxisbezug, eine ausgeprägte strukturelle Komplexität und vielseitige Wechselwirkungen der sportwissenschaftlichen Teilgebiete geprägt. Diese Eigenschaften haben in der Vergangenheit dazu geführt, dass zentrale Fragestellungen, wie beispielsweise die Maximierung der sportlichen Leistungsfähigkeit, eine ökonomische Trainingsgestaltung, eine effektive Talentauswahl und -sichtung oder die Modellbildung noch nicht vollständig gelöst werden konnten. Neben den bereits vorhandenen linearen Lösungsansätzen werden in dieser Arbeit Methoden aus dem Bereich der Neuronalen Netzwerke eingesetzt. Diese nichtlinearen Diagnoseverfahren sind besonders geeignet für die Analyse von Prozessabläufen, wie sie beispielsweise im Training vorliegen.</p> <p>Im theoretischen Teil werden zunächst Gemeinsamkeiten, Abhängigkeiten und Unterschiede in den Bereichen Training, Wettkampf und Leistungsfähigkeit untersucht sowie die Brücke zwischen trainingswissenschaftlicher Diagnostik und nichtlinearen Verfahren über die Begriffe der Interdisziplinarität und Integrativität geschlagen. Angelehnt an die Theorie der Neuronalen Netze werden anschließend die Grundlagenmodelle Perzeptron, Multilayer-Perzeptron und Selbstorganisierende Karten theoretisch erläutert. Im empirischen Teil stehen dann die nichtlineare Analyse von personalen Anforderungsstrukturen, Zustände der sportlichen Form und die Prognose sportlichen Talents - allesamt bei jugendlichen Leistungsschwimmerinnen und -schwimmern - im Mittelpunkt. Die nichtlinearen Methoden werden dabei einerseits auf ihre wissenschaftliche Aussagekraft überprüft, andererseits untereinander sowie mit linearen Verfahren verglichen.</p> / <p>The diagnostic methods in training science concentrate on the core areas of training, competition, and performance. The methods commonly used are characterized by a high degree of practical applicability and distinct structural complexity. These characteristics have led to the question which scientific methods fit best for resolving problems like, for example, the optimization of athletic performance, efficient planning and monitoring of training processes, effective talent screening, selection and development, or the formation of analytical models. All these questions have not yet been answered sufficiently.</p> <p>Aside from the traditional mathematical approaches on the basis of the linear model, nonlinear methods in the field of neural networks are used in this dissertation. These nonlinear diagnostic methods are especially suitable for the analysis of coherent patterns in time series such as training processes.</p> <p>In the theoretical part of the dissertation, common aspects, mutual dependencies, and differences between training, competition, and performance are examined. In this context, a bridge is built between the diagnostic purposes in these fields and suitable nonlinear methods. Along the lines of the neural networks theory, the basic models Perceptron, Multilayer-Perceptron, and Self-Organizing Feature Maps are subsequently elucidated.</p> <p>In the empirical part of the thesis, three studies conducted with top level adolescent swimmers are presented that focus on the nonlinear analysis of personal athletic ability structures, different states of athletic shape, and the prognosis of athletic talent. The nonlinear methods are thus examined as to how worthwhile they are for analytical purposes in training science on the one hand, and they are compared to each other as well as to linear methods on the other hand.</p>
428

Durchgängige Verfolgbarkeit im Vorfeld der Softwareentwicklung von E-Government-Anwendungen : ein ontologiebasierter und modellgetriebener Ansatz am Beispiel von Bürgerdiensten / Continuous pre-requirements specification traceability for e-government : ontology based and model driven approach using the example of citizen services

Off, Thomas January 2011 (has links)
Die öffentliche Verwaltung setzt seit mehreren Jahren E-Government-Anwendungssysteme ein, um ihre Verwaltungsprozesse intensiver mit moderner Informationstechnik zu unterstützen. Da die öffentliche Verwaltung in ihrem Handeln in besonderem Maße an Recht und Gesetz gebunden ist verstärkt und verbreitet sich der Zusammenhang zwischen den Gesetzen und Rechtsvorschriften einerseits und der zur Aufgabenunterstützung eingesetzten Informationstechnik andererseits. Aus Sicht der Softwaretechnik handelt es sich bei diesem Zusammenhang um eine spezielle Form der Verfolgbarkeit von Anforderungen (engl. Traceability), die so genannte Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (Pre-Requirements Specification Traceability, kurz Pre-RS Traceability), da sie Aspekte betrifft, die relevant sind, bevor die Anforderungen in eine Spezifikation eingeflossen sind (Ursprünge von Anforderungen). Der Ansatz dieser Arbeit leistet einen Beitrag zur Verfolgbarkeit im Vorfeld der Anforderungsspezifikation von E-Government-Anwendungssystemen. Er kombiniert dazu aktuelle Entwicklungen und Standards (insbesondere des World Wide Web Consortium und der Object Management Group) aus den Bereichen Verfolgbarkeit von Anforderungen, Semantic Web, Ontologiesprachen und modellgetriebener Softwareentwicklung. Der Lösungsansatz umfasst eine spezielle Ontologie des Verwaltungshandeln, die mit den Techniken, Methoden und Werkzeugen des Semantic Web eingesetzt wird, um in Texten von Rechtsvorschriften relevante Ursprünge von Anforderungen durch Annotationen mit einer definierten Semantik zu versehen. Darauf aufbauend wird das Ontology Definition Metamodel (ODM) verwendet, um die Annotationen als spezielle Individuen einer Ontologie auf Elemente der Unified Modeling Language (UML) abzubilden. Dadurch entsteht ein neuer Modelltyp Pre-Requirements Model (PRM), der das Vorfeld der Anforderungsspezifikation formalisiert. Modelle diesen Typs können auch verwendet werden, um Aspekte zu formalisieren die sich nicht oder nicht vollständig aus dem Text der Rechtsvorschrift ergeben. Weiterhin bietet das Modell die Möglichkeit zum Anschluss an die modellgetriebene Softwareentwicklung. In der Arbeit wird deshalb eine Erweiterung der Model Driven Architecture (MDA) vorgeschlagen. Zusätzlich zu den etablierten Modelltypen Computation Independent Model (CIM), Platform Independent Model (PIM) und Platform Specific Model (PSM) könnte der Einsatz des PRM Vorteile für die Verfolgbarkeit bringen. Wird die MDA mit dem PRM auf das Vorfeld der Anforderungsspezifikation ausgeweitet, kann eine Transformation des PRM in ein CIM als initiale Anforderungsspezifikation erfolgen, indem der MOF Query View Transformation Standard (QVT) eingesetzt wird. Als Teil des QVT-Standards ist die Aufzeichnung von Verfolgbarkeitsinformationen bei Modelltransformationen verbindlich. Um die semantische Lücke zwischen PRM und CIM zu überbrücken, erfolgt analog zum Einsatz des Plattformmodells (PM) in der PIM nach PSM Transformation der Einsatz spezieller Hilfsmodelle. Es kommen dafür die im Projekt "E-LoGo" an der Universität Potsdam entwickelten Referenzmodelle zum Einsatz. Durch die Aufzeichnung der Abbildung annotierter Textelemente auf Elemente im PRM und der Transformation der Elemente des PRM in Elemente des CIM kann durchgängige Verfolgbarkeit im Vorfeld der Anforderungsspezifikation erreicht werden. Der Ansatz basiert auf einer so genannten Verfolgbarkeitsdokumentation in Form verlinkter Hypertextdokumente, die mittels XSL-Stylesheet erzeugt wurden und eine Verbindung zur graphischen Darstellung des Diagramms (z. B. Anwendungsfall-, Klassendiagramm der UML) haben. Der Ansatz unterstützt die horizontale Verfolgbarkeit zwischen Elementen unterschiedlicher Modelle vorwärts- und rückwärtsgerichtet umfassend. Er bietet außerdem vertikale Verfolgbarkeit, die Elemente des gleichen Modells und verschiedener Modellversionen in Beziehung setzt. Über den offensichtlichen Nutzen einer durchgängigen Verfolgbarkeit im Vorfeld der Anforderungsspezifikation (z. B. Analyse der Auswirkungen einer Gesetzesänderung, Berücksichtigung des vollständigen Kontextes einer Anforderung bei ihrer Priorisierung) hinausgehend, bietet diese Arbeit eine erste Ansatzmöglichkeit für eine Feedback-Schleife im Prozess der Gesetzgebung. Stehen beispielsweise mehrere gleichwertige Gestaltungsoptionen eines Gesetzes zur Auswahl, können die Auswirkungen jeder Option analysiert und der Aufwand ihrer Umsetzung in E-Government-Anwendungen als Auswahlkriterium berücksichtigt werden. Die am 16. März 2011 in Kraft getretene Änderung des NKRG schreibt eine solche Analyse des so genannten „Erfüllungsaufwands“ für Teilbereiche des Verwaltungshandelns bereits heute verbindlich vor. Für diese Analyse kann die vorliegende Arbeit einen Ansatz bieten, um zu fundierten Aussagen über den Änderungsaufwand eingesetzter E-Government-Anwendungssysteme zu kommen. / Public administration is using electronic government (e-government) application systems for several years to support their processes more intensive with modern information and communication technology than ever before. This increases and broadens the relationship between law and legislation executed by the administration on the one hand and requirements to e-government application systems used to support administrative execution on the other hand. This relationship is subject matter of pre-requirements specification traceability (pre-RS traceability). This work introduces an approach to pre-RS traceabiliy for e-government application. It combines research efforts and standards (i.e. of World Wide Web Consortium and Object Management Group) from different fields: traceability, semantic web, ontology engineering and model driven software engineering. Using this approach it is possible to add a semantic to elements of law and legislation texts using annotations. Annotation semantics is based on an ontology of public administration execution developed especially for this approach. A mapping from annotated text elements as a special kind of ontology individuals to elements of Unified Modeling Language (UML) is created using the Ontology Definition Metamodel (ODM). This mapping results in a new model type referred to as Pre-Requirements Model (PRM). This model uses elements that exist before requirements are explicitly documented in a requirements specification. Therefore it can be primary used to formalize elements and their relationships in the pre-requirements scope. Through the mapping rules of ODM it keeps a traceable relationship from each model element to its corresponding annotated text elements. PRM can also be used to model and refine elements that are not or not completely derived directly from text of law and legislation. In this work is argued that Model Driven Architecture (MDA) might profit from extending the existing model types Computation Independent Model (CIM), Platform Independent Model (PIM) and Platform Specific Model (PSM) by using a PRM. This extension leads to an Architecture that starts with a pre-requirements viewpoint before any requirements are formalized and documented in models of type CIM. It offers also the opportunity to use model transformation to create an initial CIM from PRM by allying the MOF Query View Transformation standard (QVT). Using QVT ensures the traceability of model transformation because standard enforces recording of traceability information. A Transformation from PRM to CIM creates an initial requirements specification that can be refined using common techniques, methods and tools. To bridge the semantic gap between PRM and CIM the approach follows the pattern of PIM to PSM transformation which uses the Platform Model (PM). Analogues PRM to CIM transformation uses special reference models for e-government developed in the project "E-LoGo" at university of Potsdam. By recoding traces of mapping annotation to elements in PRM and transforming elements of PRM to elements in CIM using reference models continuous pre-RS traceability can be achieved. The approach uses simple Extensible Stylesheet Language Transformations (XSLT) to create a hypertext documentation that links all relevant elements. Navigating along these links makes it possible for example to start with an annotated element of a law text and follow to all resulting requirements in a CIM. Using the opposite direction it is possible to see for each requirement from which text element of a law it is derived or even if there is no relation to law. By integrating the graphical representation of a model element this navigation can even start directly in a UML diagram. This illustrates that the approach offers vertical and horizontal traceability in forward and backward direction. Besides the obvious use cases continuous pre-requirements specification traceability offers in general (i.e. impact analysis on changes of law and legislation, consider context of a requirements when prioritizing them) is also offers the chance to create a feedback on the consequences of a change in law to existing e-government systems. As long as alternatives and the necessary scope in legislative process are still left, a feedback can be used to choose an alternative with less effort or faster implementation. For federal law it is in Germany since 2011 obligatory to make a similar estimation referred to as achievement effort (“Erfüllungsaufwand”). This work contributes to the first step of making a solid estimation of this kind of effort using pre-RS traceability.
429

Approaches to analyse and interpret biological profile data

Scholz, Matthias January 2006 (has links)
Advances in biotechnologies rapidly increase the number of molecules of a cell which can be observed simultaneously. This includes expression levels of thousands or ten-thousands of genes as well as concentration levels of metabolites or proteins. <br><br> Such Profile data, observed at different times or at different experimental conditions (e.g., heat or dry stress), show how the biological experiment is reflected on the molecular level. This information is helpful to understand the molecular behaviour and to identify molecules or combination of molecules that characterise specific biological condition (e.g., disease). <br><br> This work shows the potentials of component extraction algorithms to identify the major factors which influenced the observed data. This can be the expected experimental factors such as the time or temperature as well as unexpected factors such as technical artefacts or even unknown biological behaviour. <br><br> Extracting components means to reduce the very high-dimensional data to a small set of new variables termed components. Each component is a combination of all original variables. The classical approach for that purpose is the principal component analysis (PCA). <br><br> It is shown that, in contrast to PCA which maximises the variance only, modern approaches such as independent component analysis (ICA) are more suitable for analysing molecular data. The condition of independence between components of ICA fits more naturally our assumption of individual (independent) factors which influence the data. This higher potential of ICA is demonstrated by a crossing experiment of the model plant <i>Arabidopsis thaliana</i> (Thale Cress). The experimental factors could be well identified and, in addition, ICA could even detect a technical artefact. <br><br> However, in continuously observations such as in time experiments, the data show, in general, a nonlinear distribution. To analyse such nonlinear data, a nonlinear extension of PCA is used. This nonlinear PCA (NLPCA) is based on a neural network algorithm. The algorithm is adapted to be applicable to incomplete molecular data sets. Thus, it provides also the ability to estimate the missing data. The potential of nonlinear PCA to identify nonlinear factors is demonstrated by a cold stress experiment of <i>Arabidopsis thaliana</i>. <br><br> The results of component analysis can be used to build a molecular network model. Since it includes functional dependencies it is termed functional network. Applied to the cold stress data, it is shown that functional networks are appropriate to visualise biological processes and thereby reveals molecular dynamics. / Fortschritte in der Biotechnologie ermöglichen es, eine immer größere Anzahl von Molekülen in einer Zelle gleichzeitig zu erfassen. Das betrifft sowohl die Expressionswerte tausender oder zehntausender Gene als auch die Konzentrationswerte von Metaboliten oder Proteinen. <br><br> Diese Profildaten verschiedener Zeitpunkte oder unterschiedlicher experimenteller Bedingungen (z.B. unter Stressbedingungen wie Hitze oder Trockenheit) zeigen, wie sich das biologische Experiment auf molekularer Ebene widerspiegelt. Diese Information kann genutzt werden, um molekulare Abläufe besser zu verstehen und um Moleküle oder Molekül-Kombinationen zu bestimmen, die für bestimmte biologische Zustände (z.B.: Krankheit) charakteristisch sind. <br><br> Die Arbeit zeigt die Möglichkeiten von Komponenten-Extraktions-Algorithmen zur Bestimmung der wesentlichen Faktoren, die einen Einfluss auf die beobachteten Daten ausübten. Das können sowohl die erwarteten experimentellen Faktoren wie Zeit oder Temperatur sein als auch unerwartete Faktoren wie technische Einflüsse oder sogar unerwartete biologische Vorgänge. <br><br> Unter der Extraktion von Komponenten versteht man die Reduzierung dieser stark hoch-dimensionalen Daten auf wenige neue Variablen, die eine Kombination aus allen ursprünglichen Variablen darstellen und als Komponenten bezeichnet werden. Die Standard-Methode für diesen Zweck ist die Hauptkomponentenanalyse (PCA). <br><br> Es wird gezeigt, dass - im Vergleich zur nur die Varianz maximierenden PCA - moderne Methoden wie die Unabhängige Komponentenanalyse (ICA) für die Analyse molekularer Datensätze besser geeignet sind. Die Unabhängigkeit von Komponenten in der ICA entspricht viel besser unserer Annahme individueller (unabhängiger) Faktoren, die einen Einfluss auf die Daten ausüben. Dieser Vorteil der ICA wird anhand eines Kreuzungsexperiments mit der Modell-Pflanze <i>Arabidopsis thaliana</i> (Ackerschmalwand) demonstriert. Die experimentellen Faktoren konnten dabei gut identifiziert werden und ICA erkannte sogar zusätzlich einen technischen Störfaktor. <br><br> Bei kontinuierlichen Beobachtungen wie in Zeitexperimenten zeigen die Daten jedoch häufig eine nichtlineare Verteilung. Für die Analyse dieser nichtlinearen Daten wird eine nichtlinear erweiterte Methode der PCA angewandt. Diese nichtlineare PCA (NLPCA) basiert auf einem neuronalen Netzwerk-Algorithmus. Der Algorithmus wurde für die Anwendung auf unvollständigen molekularen Daten erweitert. Dies ermöglicht es, die fehlenden Werte zu schätzen. Die Fähigkeit der nichtlinearen PCA zur Bestimmung nichtlinearer Faktoren wird anhand eines Kältestress-Experiments mit <i>Arabidopsis thaliana</i> demonstriert. <br><br> Die Ergebnisse aus der Komponentenanalyse können zur Erstellung molekularer Netzwerk-Modelle genutzt werden. Da sie funktionelle Abhängigkeiten berücksichtigen, werden sie als Funktionale Netzwerke bezeichnet. Anhand der Kältestress-Daten wird demonstriert, dass solche funktionalen Netzwerke geeignet sind, biologische Prozesse zu visualisieren und dadurch die molekularen Dynamiken aufzuzeigen.
430

Nomadic migration : a service environment for autonomic computing on the Grid

Lanfermann, Gerd January 2002 (has links)
In den vergangenen Jahren ist es zu einer dramatischen Vervielfachung der verfügbaren Rechenzeit gekommen. Diese 'Grid Ressourcen' stehen jedoch nicht als kontinuierlicher Strom zur Verfügung, sondern sind über verschiedene Maschinentypen, Plattformen und Betriebssysteme verteilt, die jeweils durch Netzwerke mit fluktuierender Bandbreite verbunden sind. <br /> Es wird für Wissenschaftler zunehmend schwieriger, die verfügbaren Ressourcen für ihre Anwendungen zu nutzen. Wir glauben, dass intelligente, selbstbestimmende Applikationen in der Lage sein sollten, ihre Ressourcen in einer dynamischen und heterogenen Umgebung selbst zu wählen: Migrierende Applikationen suchen eine neue Ressource, wenn die alte aufgebraucht ist. 'Spawning'-Anwendungen lassen Algorithmen auf externen Maschinen laufen, um die Hauptanwendung zu beschleunigen. Applikationen werden neu gestartet, sobald ein Absturz endeckt wird. Alle diese Verfahren können ohne menschliche Interaktion erfolgen.<br /> Eine verteilte Rechenumgebung besitzt eine natürliche Unverlässlichkeit. Jede Applikation, die mit einer solchen Umgebung interagiert, muss auf die gestörten Komponenten reagieren können: schlechte Netzwerkverbindung, abstürzende Maschinen, fehlerhafte Software. Wir konstruieren eine verlässliche Serviceinfrastruktur, indem wir der Serviceumgebung eine 'Peer-to-Peer'-Topology aufprägen. Diese “Grid Peer Service” Infrastruktur beinhaltet Services wie Migration und Spawning, als auch Services zum Starten von Applikationen, zur Dateiübertragung und Auswahl von Rechenressourcen. Sie benutzt existierende Gridtechnologie wo immer möglich, um ihre Aufgabe durchzuführen. Ein Applikations-Information- Server arbeitet als generische Registratur für alle Teilnehmer in der Serviceumgebung.<br /> Die Serviceumgebung, die wir entwickelt haben, erlaubt es Applikationen z.B. eine Relokationsanfrage an einen Migrationsserver zu stellen. Der Server sucht einen neuen Computer, basierend auf den übermittelten Ressourcen-Anforderungen. Er transferiert den Statusfile des Applikation zu der neuen Maschine und startet die Applikation neu. Obwohl das umgebende Ressourcensubstrat nicht kontinuierlich ist, können wir kontinuierliche Berechnungen auf Grids ausführen, indem wir die Applikation migrieren. Wir zeigen mit realistischen Beispielen, wie sich z.B. ein traditionelles Genom-Analyse-Programm leicht modifizieren lässt, um selbstbestimmte Migrationen in dieser Serviceumgebung durchzuführen. / In recent years, there has been a dramatic increase in available compute capacities. However, these “Grid resources” are rarely accessible in a continuous stream, but rather appear scattered across various machine types, platforms and operating systems, which are coupled by networks of fluctuating bandwidth. It becomes increasingly difficult for scientists to exploit available resources for their applications. We believe that intelligent, self-governing applications should be able to select resources in a dynamic and heterogeneous environment: Migrating applications determine a resource when old capacities are used up. Spawning simulations launch algorithms on external machines to speed up the main execution. Applications are restarted as soon as a failure is detected. All these actions can be taken without human interaction. <br /> <br /> A distributed compute environment possesses an intrinsic unreliability. Any application that interacts with such an environment must be able to cope with its failing components: deteriorating networks, crashing machines, failing software. We construct a reliable service infrastructure by endowing a service environment with a peer-to-peer topology. This “Grid Peer Services” infrastructure accommodates high-level services like migration and spawning, as well as fundamental services for application launching, file transfer and resource selection. It utilizes existing Grid technology wherever possible to accomplish its tasks. An Application Information Server acts as a generic information registry to all participants in a service environment. <br /> <br /> The service environment that we developed, allows applications e.g. to send a relocation requests to a migration server. The server selects a new computer based on the transmitted resource requirements. It transfers the application's checkpoint and binary to the new host and resumes the simulation. Although the Grid's underlying resource substrate is not continuous, we achieve persistent computations on Grids by relocating the application. We show with our real-world examples that a traditional genome analysis program can be easily modified to perform self-determined migrations in this service environment.

Page generated in 0.0429 seconds