• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 1
  • Tagged with
  • 9
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Using Data Modeling at the Elementary Level to Make Sense of Doing Mathematics and Science

Henningsen, Marjorie, Ibrahim, Nisreen 16 April 2012 (has links) (PDF)
In this workshop, participants engaged with and reflected on authentic artifacts from data modeling projects related to the solar system and to deforestation that were completed by elementary students in grade 5 (average age 11). These authentic examples were used to ground a discussion of using a data modeling approach to help elementary students make sense of and meaningful integrated use of mathematics and science concepts and tools. School-based ways of helping teachers understand this approach in order to be able to use it in their classrooms were also discussed.
2

Aufbau einer Infrastruktur zur Analyse von Massenspektrometrie-Daten am UFZ

Jakob, Kevin 26 February 2018 (has links)
Heutige naturwissenschaftliche Forschung, beispielsweise in Biologie oder Chemie, ist ohne die Unterstützung durch informationstechnische Systeme nicht realisierbar. Verbesserte Verfahren und Messegeräte ermöglichen detailliertere Erkenntnisse und erzeugen dabei signifikante Datenmengen, die ohne IT-Systeme nicht mehr effizient verarbeitet und verwaltet werden können. Die Datenmengen wachsen kontinuierlich und mit ihnen die Komplexität durchzuführender wissenschaftlicher Berechnungen. Diese Berechnungen und das damit verbundene Lösen komplexer wissenschaftlicher Probleme sind weitere Gründe für die Notwendigkeit dieser Systeme.
3

Using Data Modeling at the Elementary Level to Make Sense of DoingMathematics and Science

Henningsen, Marjorie, Ibrahim, Nisreen 16 April 2012 (has links)
In this workshop, participants engaged with and reflected on authentic artifacts from data modeling projects related to the solar system and to deforestation that were completed by elementary students in grade 5 (average age 11). These authentic examples were used to ground a discussion of using a data modeling approach to help elementary students make sense of and meaningful integrated use of mathematics and science concepts and tools. School-based ways of helping teachers understand this approach in order to be able to use it in their classrooms were also discussed.
4

Modeling and enacting complex data dependencies in business processes

Meyer, Andreas, Pufahl, Luise, Fahland, Dirk, Weske, Mathias January 2013 (has links)
Enacting business processes in process engines requires the coverage of control flow, resource assignments, and process data. While the first two aspects are well supported in current process engines, data dependencies need to be added and maintained manually by a process engineer. Thus, this task is error-prone and time-consuming. In this report, we address the problem of modeling processes with complex data dependencies, e.g., m:n relationships, and their automatic enactment from process models. First, we extend BPMN data objects with few annotations to allow data dependency handling as well as data instance differentiation. Second, we introduce a pattern-based approach to derive SQL queries from process models utilizing the above mentioned extensions. Therewith, we allow automatic enactment of data-aware BPMN process models. We implemented our approach for the Activiti process engine to show applicability. / Die Ausführung von Geschäftsprozessen in Process Engines benötigt Informationen über den Kontrollfluss, die Rollenzuordnungen und die Datenabhängigkeiten. Während die ersten beiden Aspekte bereits automatisiert von Process Engines unterstützt werden, müssen die Datenabhängigkeiten durch einen Prozessingenieur manuell hinzugefügt und gewartet werden. Allerdings ist diese Aufgabe sehr fehleranfällig und zeitintensiv. In diesem Report zeigen wir wie Prozesse mit komplexen Datenabhängigkeiten, z.B. m:n Beziehungen, modelliert und automatisiert ausgeführt werden können. Dazu erweitern wir zuerst BPMN Datenobjekte mit wenigen Annotationen, um das Handling von Datenabhängikeiten sowie die Differenzierung von Datenobjektinstanzen zu ermöglichen. Danach beschreiben wir einen Pattern-basierten Ansatz, um SQL-Queries, unter Nutzung der oben erwähnten Erweiterungen, aus Prozessmodellen abzuleiten. Damit erlauben wir die automatisierte Ausführung von Daten-orientierten BPMN Prozessmodellen. Um die Anwendbarkeit unseres Ansatzen zu demonstieren, implementierten wir ihn für die Process Engine Activiti.
5

Erkenntnistheoretische und begriffliche Grundlagen der objektorientierten Datenmodellierung

Thanh Hai, Nguyen 20 November 2017 (has links)
Ausgangsphase für die Entwicklung eines Softwaresystems sind die Modellierungen eines Wirklichkeitsausschnitts. Der Wirklichkeitsausschnitt muß zunächst erklärt, analysiert, strukturiert und modelliert werden, bevor ein brauchbares Informationssystem erstellt werden kann. Das Ergebnis dieser Modellierung bezeichnet man als Datenmodell. Der Schlüssel der Datenmodellierung liegt darin, einen Wirklichkeitsausschnitt genau zu erfassen und in adäquater Weise abzubilden, d.h. den Ausschnitt widerspruchsfrei, vollständig, formal richtig und möglichst ohne Redundanz zu beschreiben. Zwei Grundtypen der Datenmodelle sind satzorientierte und objektorientierte Datenmodelle. Im satzorientierten Datenmodell werden Informationen über einen Wirklichkeitsausschnitt als Sätze dargestellt, im objektorientierten Datenmodell als Objekte. Objekte sind Ausprägungen der Klassen. Klassen sind formalisierte Begriffe, die wir durch Abstraktionen von Gegenständen der Wirklichkeit gewonnen haben. Der objektorientierte Ansatz bietet mehrere Vorteile: adäquate einfache Modellierung (Entsprechung der menschlichen Denkweise); Wiederverwendbarkeit, Wartbarkeit, Erweiterbarkeit, Änderbarkeit von Programmen; Lokalisieren von Änderungen; Modellierbarkeit der komplexen Objekte, schneller Zugriff auf Objekte; Reduzierung der Entwicklungszeit und des Entwicklungskostens des Programms; Reduzierung der Komplexität des Problems; zentrales Konzept vieler Anwendungen; drahtloser Übergang zwischen Phasen der Softwareentwicklung usw. Alle diese Vorteile ergeben sich aus dem Klassenkonzept. Trotz der Vorzüge, die das objektorientierte Datenmodell aufweist, bereitet die Umsetzung objektorientierter Konzepte Schwierigkeiten. Die Ursachen sind verschiedener Art. Zum einen ist die Theorie aufgrund ihrer Komplexität eher verwirrend als wegweisend. Es gibt noch keinen klaren theoretischen Hintergrund. Zum anderen resultiert aus einer komplexen Sicht auf den Objektbegriff eine Reihe von Forderungen und Möglichkeiten, die derzeit nicht berücksichtigt wer den. Die Grundbegriffe der Objektorientierung sind nicht genug scharf definiert. Sie enthalten Unklarheiten und sollen deshalb präzisiert werden. Diese Arbeit befaßt sich mit den Grundbegriffen der objektorientierten Datenmodellierung. Das Ziel der Arbeit besteht darin, diese Grundbegriffe zu präzisieren, zu klären und zu begründen und damit ein besseres Verständnis des objektorientierten Ansatzes zu ermöglichen. Diese Begriffe sind nicht nur aus der Sicht der Informatik, der Logik, sondern auch aus der ontologischen Sicht zu untersuchen. Der Schwerpunkt der Arbeit liegt auf der ontologischen Untersuchung solcher Begriffe.
6

Efficient Approximate OLAP Querying Over Time Series

Perera, Kasun S., Hahmann, Martin, Lehner, Wolfgang, Pedersen, Torben Bach, Thomsen, Christian 15 June 2023 (has links)
The ongoing trend for data gathering not only produces larger volumes of data, but also increases the variety of recorded data types. Out of these, especially time series, e.g. various sensor readings, have attracted attention in the domains of business intelligence and decision making. As OLAP queries play a major role in these domains, it is desirable to also execute them on time series data. While this is not a problem on the conceptual level, it can become a bottleneck with regards to query run-time. In general, processing OLAP queries gets more computationally intensive as the volume of data grows. This is a particular problem when querying time series data, which generally contains multiple measures recorded at fine time granularities. Usually, this issue is addressed either by scaling up hardware or by employing workload based query optimization techniques. However, these solutions are either costly or require continuous maintenance. In this paper we propose an approach for approximate OLAP querying of time series that offers constant latency and is maintenance-free. To achieve this, we identify similarities between aggregation cuboids and propose algorithms that eliminate the redundancy these similarities present. In doing so, we can achieve compression rates of up to 80% while maintaining low average errors in the query results.
7

Graphdatenbanken für die textorientierten e-Humanities

Efer, Thomas 15 February 2017 (has links) (PDF)
Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen. In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann. / In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner. This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study.
8

Describing data patterns

Voß, Jakob 07 August 2013 (has links)
Diese Arbeit behandelt die Frage, wie Daten grundsätzlich strukturiert und beschrieben sind. Im Gegensatz zu vorhandenen Auseinandersetzungen mit Daten im Sinne von gespeicherten Beobachtungen oder Sachverhalten, werden Daten hierbei semiotisch als Zeichen aufgefasst. Diese Zeichen werden in Form von digitalen Dokumenten kommuniziert und sind mittels zahlreicher Standards, Formate, Sprachen, Kodierungen, Schemata, Techniken etc. strukturiert und beschrieben. Diese Vielfalt von Mitteln wird erstmals in ihrer Gesamtheit mit Hilfe der phenomenologischen Forschungsmethode analysiert. Ziel ist es dabei, durch eine genaue Erfahrung und Beschreibung von Mitteln zur Strukturierung und Beschreibung von Daten zum allgemeinen Wesen der Datenstrukturierung und -beschreibung vorzudringen. Die Ergebnisse dieser Arbeit bestehen aus drei Teilen. Erstens ergeben sich sechs Prototypen, die die beschriebenen Mittel nach ihrem Hauptanwendungszweck kategorisieren. Zweitens gibt es fünf Paradigmen, die das Verständnis und die Anwendung von Mitteln zur Strukturierung und Beschreibung von Daten grundlegend beeinflussen. Drittens legt diese Arbeit eine Mustersprache der Datenstrukturierung vor. In zwanzig Mustern werden typische Probleme und Lösungen dokumentiert, die bei der Strukturierung und Beschreibung von Daten unabhängig von konkreten Techniken immer wieder auftreten. Die Ergebnisse dieser Arbeit können dazu beitragen, das Verständnis von Daten --- das heisst digitalen Dokumente und ihre Metadaten in allen ihren Formen --- zu verbessern. Spezielle Anwendungsgebiete liegen unter Anderem in den Bereichen Datenarchäologie und Daten-Literacy. / Many methods, technologies, standards, and languages exist to structure and describe data. The aim of this thesis is to find common features in these methods to determine how data is actually structured and described. Existing studies are limited to notions of data as recorded observations and facts, or they require given structures to build on, such as the concept of a record or the concept of a schema. These presumed concepts have been deconstructed in this thesis from a semiotic point of view. This was done by analysing data as signs, communicated in form of digital documents. The study was conducted by a phenomenological research method. Conceptual properties of data structuring and description were first collected and experienced critically. Examples of such properties include encodings, identifiers, formats, schemas, and models. The analysis resulted in six prototypes to categorize data methods by their primary purpose. The study further revealed five basic paradigms that deeply shape how data is structured and described in practice. The third result consists of a pattern language of data structuring. The patterns show problems and solutions which occur over and over again in data, independent from particular technologies. Twenty general patterns were identified and described, each with its benefits, consequences, pitfalls, and relations to other patterns. The results can help to better understand data and its actual forms, both for consumption and creation of data. Particular domains of application include data archaeology and data literacy.
9

Graphdatenbanken für die textorientierten e-Humanities

Efer, Thomas 08 February 2017 (has links)
Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen. In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann. / In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner. This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study.

Page generated in 0.0593 seconds