• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 131
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 314
  • 230
  • 151
  • 141
  • 135
  • 135
  • 54
  • 35
  • 34
  • 30
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Designing and Development of a Data Logging and Monitoring Tool

Rehman, Habib Ur 01 November 2016 (has links) (PDF)
Since the mid 90's computer communication has become more and more common in cars and other auto mobiles. CAN based networks with sensors transmitting small data packets are utilized in the automotive industry to operate and supervise vehicles' functionality. To ease communication several higher layer protocols for CAN based networks have been developed. In some applications it is necessary to exchange information between networks using different protocols, and by connecting the two networks to a gateway, the information is translated and forwarded and intercommunication is enabled. This master thesis is conducted at Torqeedo GmbH, Munich. Theme of the thesis was “Designing and Development of a Data Logging and Monitoring Tool”. Term “data logging” refers to the gathering or collection of specific data over a period of time. Monitoring means evaluate the data we are logging. Tools for data logging and monitoring are used in variant application these days. In medical, in-vehicle data logging and environment monitoring. This data could be voltage, current temperature, Time stump, heartbeat of the patient, vehicle fuel level etc. To capture and log data various communication channels used. Such channel varies from simple data cable to satellite link. There are variant protocols used for different communication channels. For our DBHS logging and monitoring tool we are using CANopen protocol. Main goal of this thesis is to develop a tool which can make debugging easy and log connection box data so we can use logged data later on for offline data analysis and simulation purposes.
122

Partner datenverarbeitender Services

Wagner, Christoph 19 January 2015 (has links)
Diese Arbeit untersucht den Einfluss von Daten auf das Verhalten und die Korrektheit eines verteilten Systems. Ein verteiltes System besteht aus mehreren Services. Ein Service ist eine selbständige, plattformunabhängige Einheit, die anderen Services eine bestimmte Funktionalität über eine wohldefinierte Schnittstelle zur Verfügung stellt. In dieser Arbeit betrachten wir die Interaktion von jeweils genau zwei Services miteinander. Zwei Services, die erfolgreich miteinander zusammenarbeiten können, nennen wir Partner. Ein Service heißt bedienbar, wenn er mindestens einen Partner hat. Ziel der Arbeit ist es, zu untersuchen, wann zwei Services Partner sind, und für einen Service zu entscheiden, ob dieser bedienbar ist. Aufgrund der Daten kann der Zustandsraum eines Service sehr groß oder sogar unendlich groß werden. Wir untersuchen zwei Klassen von Services mit unendlich vielen Zuständen. Für diese Klassen stellen wir Algorithmen vor, welche zu einem gegebenen Service einen Partner synthetisieren, falls ein solcher existiert. Auf diese Weise entscheiden wir konstruktiv die Bedienbarkeit eines Service. Weiterhin stellen wir Transformationsregeln für Partner vor und untersuchen, wie viel Speicherplatz ein Partner eines Services mindestens benötigt. / This thesis studies the influence of data on the behavior and the correctness of a distributed system. A distributed system consists of several services. A service is a self-contained, platform-independent entity which provides a certain functionality to other services via a well-defined interface.In this thesis, we consider the interaction of exactly two services. Two services that can successfully cooperate with each other are called partners. We call a service controllable, if the service has at least one partner. The goal of this thesis is to study the conditions for which two services are partners and to decide whether a given service is controllable. Due to the data, the state space of a service may be very large or even infinite. We investigate two classes of services with infinitely many states. For these classes, we present algorithms that synthesize a partner of a service, if it exists. This allows us to decide the controllability of a service constructively. Furthermore, we present transformation rules for partners and investigate the minimum amount of memory that a partner of a service needs.
123

Conceptual Factors and Fuzzy Data

Glodeanu, Cynthia Vera 29 May 2013 (has links) (PDF)
With the growing number of large data sets, the necessity of complexity reduction applies today more than ever before. Moreover, some data may also be vague or uncertain. Thus, whenever we have an instrument for data analysis, the questions of how to apply complexity reduction methods and how to treat fuzzy data arise rather naturally. In this thesis, we discuss these issues for the very successful data analysis tool Formal Concept Analysis. In fact, we propose different methods for complexity reduction based on qualitative analyses, and we elaborate on various methods for handling fuzzy data. These two topics split the thesis into two parts. Data reduction is mainly dealt with in the first part of the thesis, whereas we focus on fuzzy data in the second part. Although each chapter may be read almost on its own, each one builds on and uses results from its predecessors. The main crosslink between the chapters is given by the reduction methods and fuzzy data. In particular, we will also discuss complexity reduction methods for fuzzy data, combining the two issues that motivate this thesis. / Komplexitätsreduktion ist eines der wichtigsten Verfahren in der Datenanalyse. Mit ständig wachsenden Datensätzen gilt dies heute mehr denn je. In vielen Gebieten stößt man zudem auf vage und ungewisse Daten. Wann immer man ein Instrument zur Datenanalyse hat, stellen sich daher die folgenden zwei Fragen auf eine natürliche Weise: Wie kann man im Rahmen der Analyse die Variablenanzahl verkleinern, und wie kann man Fuzzy-Daten bearbeiten? In dieser Arbeit versuchen wir die eben genannten Fragen für die Formale Begriffsanalyse zu beantworten. Genauer gesagt, erarbeiten wir verschiedene Methoden zur Komplexitätsreduktion qualitativer Daten und entwickeln diverse Verfahren für die Bearbeitung von Fuzzy-Datensätzen. Basierend auf diesen beiden Themen gliedert sich die Arbeit in zwei Teile. Im ersten Teil liegt der Schwerpunkt auf der Komplexitätsreduktion, während sich der zweite Teil der Verarbeitung von Fuzzy-Daten widmet. Die verschiedenen Kapitel sind dabei durch die beiden Themen verbunden. So werden insbesondere auch Methoden für die Komplexitätsreduktion von Fuzzy-Datensätzen entwickelt.
124

False Discovery Rates, Higher Criticism and Related Methods in High-Dimensional Multiple Testing

Klaus, Bernd 16 January 2013 (has links) (PDF)
The technical advancements in genomics, functional magnetic-resonance and other areas of scientific research seen in the last two decades have led to a burst of interest in multiple testing procedures. A driving factor for innovations in the field of multiple testing has been the problem of large scale simultaneous testing. There, the goal is to uncover lower--dimensional signals from high--dimensional data. Mathematically speaking, this means that the dimension d is usually in the thousands while the sample size n is relatively small (max. 100 in general, often due to cost constraints) --- a characteristic commonly abbreviated as d >> n. In my thesis I look at several multiple testing problems and corresponding procedures from a false discovery rate (FDR) perspective, a methodology originally introduced in a seminal paper by Benjamini and Hochberg (2005). FDR analysis starts by fitting a two--component mixture model to the observed test statistics. This mixture consists of a null model density and an alternative component density from which the interesting cases are assumed to be drawn. In the thesis I proposed a new approach called log--FDR to the estimation of false discovery rates. Specifically, my new approach to truncated maximum likelihood estimation yields accurate null model estimates. This is complemented by constrained maximum likelihood estimation for the alternative density using log--concave density estimation. A recent competitor to the FDR is the method of \"Higher Criticism\". It has been strongly advocated in the context of variable selection in classification which is deeply linked to multiple comparisons. Hence, I also looked at variable selection in class prediction which can be viewed as a special signal identification problem. Both FDR methods and Higher Criticism can be highly useful for signal identification. This is discussed in the context of variable selection in linear discriminant analysis (LDA), a popular classification method. FDR methods are not only useful for multiple testing situations in the strict sense, they are also applicable to related problems. I looked at several kinds of applications of FDR in linear classification. I present and extend statistical techniques related to effect size estimation using false discovery rates and showed how to use these for variable selection. The resulting fdr--effect method proposed for effect size estimation is shown to work as well as competing approaches while being conceptually simple and computationally inexpensive. Additionally, I applied the fdr--effect method to variable selection by minimizing the misclassification rate and showed that it works very well and leads to compact and interpretable feature sets.
125

Anomalieresolution bei abduktivem Schließen: Experimente zur Hypothesenbildung und Strategieauswahl beim Problemlösen

Keinath, Andreas 29 September 2003 (has links) (PDF)
Das Finden einer Erklärung für eine gegebene Menge von Daten oder Evidenzen wird als abduktives Schließen bezeichnet (Josephson & Josephson, 1994). Eine Vielzahl von Aufgaben lässt sich demnach als Abduktion charakterisieren, darunter beispielsweise medizinische Diagnose, die Suche nach Fehlern in technischen Systemen oder auch wissenschaftliches Entdecken (z.B. Charniak & McDermott, 1985). Für viele dieser Aufgaben ist der Umgang mit Anomalien von besonderer Bedeutung. Eine Anomalie ist im einfachsten Falle eine neue Evidenz, die einer bisherigen Erklärung für Daten widerspricht. Vor allem im Bereich des wissenschaftlichen Entdeckens weist eine Vielzahl von Studien darauf hin, wie wichtig das Erkennen und Lösen von Anomalien für erfolgreiches Problemlösen ist (vgl. Kuhn, 1962; Chinn & Brewer, 1998; Alberdi, Sleeman & Korpi, 2000). Die meisten Theorien abduktiven Schließens berücksichtigen die Bedeutung von Anomalien dagegen nur unzureichend (vgl. Klahr & Dunbar, 1988; Thagrad, 1989). Allerdings bietet das Modell von Johnson und Krems (2001, Krems & Johnson, 1995) einen spezifischen Mechanismus zur Anomalieresolution: Im Falle zweier sich widersprechender Evidenzen wird für beide Evidenzen eine Alternativerklärung konstruiert. Anschließend werden diese gegeneinander abgewogen. Indes wurde dieser Mechanismus bislang noch nicht empirisch belegt. Ziel der vorliegenden Arbeit war es einerseits zu klären, ob sich empirische Belege für den postulierten Mechanismus zur Anomalieresolution von Johnson und Krems (2001) finden lassen und andererseits zu prüfen, welche Einflussfaktoren und Strategien die Resolution von Anomalien beeinflussen. Es fand sich, dass abstrakte Ausgangshypothesen die Resolution von Anomalien erleichtern. Widersprach eine Anomalie einer abstrakten Ausgangserklärung, so lösten die Versuchsteilnehmer in Experiment 1 die Aufgaben häufiger, als bei einer konkreten Ausgangshypothese. In Experiment 2 zeigte sich zudem, dass bei einer abstrakten Ausgangshypothese weniger Experimente durchgeführt werden mussten um die Aufgabe korrekt zu lösen, dass häufiger spezifische Hypothesentests durchgeführt wurden und die Aufgaben auch schneller gelöst werden konnten. Unabhängig von der Ausgangshypothese testeten erfolgreiche Versuchsteilnehmer bevorzugt spezifische Hypothesen während hypothesenfreie Experimente dazu dienten, neue Hypothesen zu generieren. Demnach lösten die Probanden die Aufgaben durch Anwendung einer Mischstrategie, indem sie sowohl hypothesengestützt als auch hypothesenfrei nach neuen Daten suchten. Eine Einteilung der Versuchsteilnehmer in Theoretiker und Empiristen (Klahr & Dunbar, 1988) war dagegen nicht möglich. Das Ergebnis wurde in Anlehnung an Befunde von Smith et al. (1991) dahingehend interpretiert, dass eine solche Mischstrategie dabei hilft, die Komplexität der abduktiven Aufgabe zu reduzieren. Nicht bestätigt werden konnte in den Experimenten 2 und 3 die Modellvorhersage von Johnson und Krems (2001), dass die Versuchspersonen zwei Alternativerklärungen für die widersprechenden Evidenzen generieren um diese anschließend gegeneinander abzuwägen. Es wurde von den Probanden nur eine Alternativerklärung generiert, in Abhängigkeit davon, ob die an der Anomalie beteiligten Evidenzen kontextsensitiv oder kontextfrei erklärbar waren. Unter kontextsensitiven Evidenzen versteht man solche Evidenzen, die zu ihrer Erklärung auf andere Evidenzen angewiesen sind. Dagegen können kontextfrei erklärbare Evidenzen unmittelbar und ohne Einbeziehung des Kontextes erklärt werden. War eine kontextsensitive Evidenz an der Anomalie beteiligt, entweder als anomalieauslösende Evidenz oder als widersprochene Evidenz, so wurde immer diese alternativ erklärt. Waren dagegen beide an der Anomalie beteiligten Evidenzen kontextfrei erklärbar, so wurde nur für die anomalieauslösende Evidenz eine Alternativerklärung generiert. Zusammenfassend belegen die Ergebnisse der vorliegenden Arbeit die Bedeutung unterschiedlicher Hypothesentypen bei der Anomalieresolution. Abstrakte Ausgangshypothesen erleichtern nach Anomalieeintritt den Wechsel zu alternativen Hypothesen. Ist an der Anomalie eine kontextsensitive Evidenz beteiligt, wird diese bevorzugt alternativ erklärt. Im anderen Falle wird immer die anomalieauslösende Evidenz alternativ erklärt. Weiterhin zeigen die Ergebnisse, dass im Gegensatz zu dem von Johnson und Krems postulierten Mechanismus, menschliche Problemlöser bei der Anomalieresolution keine Optimierungs-strategie anwenden, sondern minimumsorientiert nach nur einer Alternativ-erklärung suchen und anschließend die Suche abbrechen (vgl. Gigerenzer & Selten, 2000). Dagegen fand sich als bevorzugte Strategie erfolgreicher Problem-löser das Testen spezifischer Hypothesen sowie hypothesenfreie Experimente zur Generierung von neuen Hypothesen.
126

Zivilrechtlicher Auskunftsanspruch gegenüber Access Providern : Verpflichtung zur Herausgabe der Nutzerdaten von Urheberrechtsverletzern unter Berücksichtigung der Enforcement-Richtlinie (RL 2004/48/EG) /

Kramer, Andreas. January 2007 (has links) (PDF)
Universiẗat, Diss.--Münster, 2006. / Literaturverz. S. XVI - XXXIII.
127

Nichtparametrische relative Effekte

Domhof, Sebastian 02 May 2001 (has links)
No description available.
128

What's in a query : analyzing, predicting, and managing linked data access

Lorey, Johannes January 2014 (has links)
The term Linked Data refers to connected information sources comprising structured data about a wide range of topics and for a multitude of applications. In recent years, the conceptional and technical foundations of Linked Data have been formalized and refined. To this end, well-known technologies have been established, such as the Resource Description Framework (RDF) as a Linked Data model or the SPARQL Protocol and RDF Query Language (SPARQL) for retrieving this information. Whereas most research has been conducted in the area of generating and publishing Linked Data, this thesis presents novel approaches for improved management. In particular, we illustrate new methods for analyzing and processing SPARQL queries. Here, we present two algorithms suitable for identifying structural relationships between these queries. Both algorithms are applied to a large number of real-world requests to evaluate the performance of the approaches and the quality of their results. Based on this, we introduce different strategies enabling optimized access of Linked Data sources. We demonstrate how the presented approach facilitates effective utilization of SPARQL endpoints by prefetching results relevant for multiple subsequent requests. Furthermore, we contribute a set of metrics for determining technical characteristics of such knowledge bases. To this end, we devise practical heuristics and validate them through thorough analysis of real-world data sources. We discuss the findings and evaluate their impact on utilizing the endpoints. Moreover, we detail the adoption of a scalable infrastructure for improving Linked Data discovery and consumption. As we outline in an exemplary use case, this platform is eligible both for processing and provisioning the corresponding information. / Unter dem Begriff Linked Data werden untereinander vernetzte Datenbestände verstanden, die große Mengen an strukturierten Informationen für verschiedene Anwendungsgebiete enthalten. In den letzten Jahren wurden die konzeptionellen und technischen Grundlagen für die Veröffentlichung von Linked Data gelegt und verfeinert. Zu diesem Zweck wurden eine Reihe von Technologien eingeführt, darunter das Resource Description Framework (RDF) als Datenmodell für Linked Data und das SPARQL Protocol and RDF Query Language (SPARQL) zum Abfragen dieser Informationen. Während bisher hauptsächlich die Erzeugung und Bereitstellung von Linked Data Forschungsgegenstand war, präsentiert die vorliegende Arbeit neuartige Verfahren zur besseren Nutzbarmachung. Insbesondere werden dafür Methoden zur Analyse und Verarbeitung von SPARQL-Anfragen entwickelt. Zunächst werden daher zwei Algorithmen vorgestellt, die die strukturelle Ähnlichkeit solcher Anfragen bestimmen. Beide Algorithmen werden auf eine große Anzahl von authentischen Anfragen angewandt, um sowohl die Güte der Ansätze als auch die ihrer Resultate zu untersuchen. Darauf aufbauend werden verschiedene Strategien erläutert, mittels derer optimiert auf Quellen von Linked Data zugegriffen werden kann. Es wird gezeigt, wie die dabei entwickelte Methode zur effektiven Verwendung von SPARQL-Endpunkten beiträgt, indem relevante Ergebnisse für mehrere nachfolgende Anfragen vorgeladen werden. Weiterhin werden in dieser Arbeit eine Reihe von Metriken eingeführt, die eine Einschätzung der technischen Eigenschaften solcher Endpunkte erlauben. Hierfür werden praxisrelevante Heuristiken entwickelt, die anschließend ausführlich mit Hilfe von konkreten Datenquellen analysiert werden. Die dabei gewonnenen Erkenntnisse werden erörtert und in Hinblick auf die Verwendung der Endpunkte interpretiert. Des Weiteren wird der Einsatz einer skalierbaren Plattform vorgestellt, die die Entdeckung und Nutzung von Beständen an Linked Data erleichtert. Diese Plattform dient dabei sowohl zur Verarbeitung als auch zur Verfügbarstellung der zugehörigen Information, wie in einem exemplarischen Anwendungsfall erläutert wird.
129

A Narrow Band Level Set Method for Surface Extraction from Unstructured Point-based Volume Data

Rosenthal, Paul, Molchanov, Vladimir, Linsen, Lars 24 June 2011 (has links) (PDF)
Level-set methods have become a valuable and well-established field of visualization over the last decades. Different implementations addressing different design goals and different data types exist. In particular, level sets can be used to extract isosurfaces from scalar volume data that fulfill certain smoothness criteria. Recently, such an approach has been generalized to operate on unstructured point-based volume data, where data points are not arranged on a regular grid nor are they connected in form of a mesh. Utilizing this new development, one can avoid an interpolation to a regular grid which inevitably introduces interpolation errors. However, the global processing of the level-set function can be slow when dealing with unstructured point-based volume data sets containing several million data points. We propose an improved level-set approach that performs the process of the level-set function locally. As for isosurface extraction we are only interested in the zero level set, values are only updated in regions close to the zero level set. In each iteration of the level-set process, the zero level set is extracted using direct isosurface extraction from unstructured point-based volume data and a narrow band around the zero level set is constructed. The band consists of two parts: an inner and an outer band. The inner band contains all data points within a small area around the zero level set. These points are updated when executing the level set step. The outer band encloses the inner band providing all those neighbors of the points of the inner band that are necessary to approximate gradients and mean curvature. Neighborhood information is obtained using an efficient kd-tree scheme, gradients and mean curvature are estimated using a four-dimensional least-squares fitting approach. Comparing ourselves to the global approach, we demonstrate that this local level-set approach for unstructured point-based volume data achieves a significant speed-up of one order of magnitude for data sets in the range of several million data points with equivalent quality and robustness.
130

Grenzen einer Kommerzialisierung von Informationen des öffentlichen Sektors /

Trosch, Daniel. January 2008 (has links)
Universiẗat, Diss.--Frankfurt a.M., 2007. / Includes bibliographical references (p. 279-293).

Page generated in 0.0387 seconds