• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 154
  • 131
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 314
  • 230
  • 151
  • 141
  • 135
  • 135
  • 54
  • 35
  • 34
  • 30
  • 28
  • 24
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Querying semistructured data based on schema matching

Bergholz, André 24 January 2000 (has links)
Daten werden noch immer groesstenteils in Dateien und nicht in Datenbanken gespeichert. Dieser Trend wird durch den Internetboom der 90er Jahre nur noch verstaerkt. Daraus ist das Forschungsgebiet der semistrukturierten Daten entstanden. Semistrukturierte Daten sind Daten, die meist in Dokumenten gespeichert sind und eine implizite und irregulaere Struktur aufweisen. HTML- oder BibTeX-Dateien oder in ASCII-Dateien gespeicherte Genomdaten sind Beispiele. Traditionelles Datenbankmanagement erfordert Design und sichert Deklarativitaet zu. Dies ist im Umfeld der semistrukturierten Daten nicht gegeben, ein flexiblerer Ansatz wird gebraucht. In dieser Arbeit wird ein neuer Ansatz des Abfragens semistrukturierter Daten praesentiert. Wir schlagen vor, semistrukturierte Daten durch eine Menge von partiellen Schemata zu beschreiben, anstatt zu versuchen, ein globales Schema zu definieren. Letzteres ist zwar geeignet, einen effizienten Zugriff auf Daten zu ermoeglichen; ein globales Schema fuer semistrukturierte Daten leidet aber zwangslaeufig an der Irregularitaet der Struktur der Daten. Wegen der vielen Ausnahmen vom intendierten Schema wird ein globales Schema schnell sehr gross und wenig repraesentativ. Damit wird dem Nutzer ein verzerrtes Bild ueber die Daten gegeben. Hingegen koennen partielle Schemata eher ein repraesentatives Bild eines Teils der Daten darstellen. Mit Hilfe statistischer Methoden kann die Guete eines partiellen Schemas bewertet werden, ebenso koennen irrelevante Teile der Datenbank identifiziert werden. Ein Datenbanksystem, das auf partiellen Schemata basiert, ist flexibler und reflektiert den Grad der Strukturierung auf vielen Ebenen. Seine Benutzbarkeit und seine Performanz steigen mit einem hoeheren Grad an Struktur und mit seiner Nutzungsdauer. Partielle Schemata koennen auf zwei Arten gewonnen werden. Erstens koennen sie durch einen Datenbankdesigner bereitgestellt werden. Es ist so gut wie unmoeglich, eine semistrukturierte Datenbank komplett zu modellieren, das Modellieren gewisser Teile ist jedoch denkbar. Zweitens koennen partielle Schemata aus Benutzeranfragen gewonnen werden, wenn nur die Anfragesprache entsprechend entworfen und definiert wird. Wir schlagen vor, eine Anfrage in einen ``Was''- und einen ``Wie''-Teil aufzuspalten. Der ``Was''-Teil wird durch partielle Schemata repraesentiert. Partielle Schemata beinhalten reiche semantische Konzepte, wie Variablendefinitionen und Pfadbeschreibungen, die an Konzepte aus Anfragesprachen angelehnt sind. Mit Variablendefinitionen koennen verschiedene Teile der Datenbank miteinander verbunden werden. Pfadbeschreibungen helfen, durch das Zulassen einer gewissen Unschaerfe, die Irregularitaet der Struktur der Daten zu verdecken. Das Finden von Stellen der Datenbank, die zu einem partiellen Schema passen, bildet die Grundlage fuer alle Arten von Anfragen. Im ``Wie''-Teil der Anfrage werden die gefundenen Stellen der Datenbank fuer die Antwort modifiziert. Dabei koennen Teile der gefundenen Entsprechungen des partiellen Schemas ausgeblendet werden oder auch die Struktur der Antwort voellig veraendert werden. Wir untersuchen die Ausdrucksstaerke unserer Anfragesprache, in dem wir einerseits die Operatoren der relationalen Algebra abbilden und andererseits das Abfragen von XML-Dokumenten demonstrieren. Wir stellen fest, dass das Finden der Entsprechungen eines Schemas (wir nennen ein partielles Schema in der Arbeit nur Schema) den aufwendigsten Teil der Anfragebearbeitung ausmacht. Wir verwenden eine weitere Abstraktionsebene, die der Constraint Satisfaction Probleme, um die Entsprechungen eines Schemas in einer Datenbank zu finden. Constraint Satisfaction Probleme bilden eine allgemeine Klasse von Suchproblemen. Fuer sie existieren bereits zahlreiche Optimierungsalgorithmen und -heuristiken. Die Grundidee besteht darin, Variablen mit zugehoerigen Domaenen einzufuehren und dann die Werte, die verschiedene Variablen gleichzeitig annehmen koennen, ueber Nebenbedingungen zu steuern. In unserem Ansatz wird das Schema in Variablen ueberfuehrt, die Domaenen werden aus der Datenbank gebildet. Nebenbedingungen ergeben sich aus den im Schema vorhandenen Praedikaten, Variablendefinitionen und Pfadbeschreibungen sowie aus der Graphstruktur des Schemas. Es werden zahlreiche Optimierungstechniken fuer Constraint Satisfaction Probleme in der Arbeit vorgestellt. Wir beweisen, dass die Entsprechungen eines Schemas in einer Datenbank ohne Suche und in polynomialer Zeit gefunden werden koennen, wenn das Schema ein Baum ist, keine Variablendefinitionen enthaelt und von der Anforderung der Injektivitaet einer Einbettung abgesehen wird. Zur Optimierung wird das Enthaltensein von Schemata herangezogen. Das Enthaltensein von Schemata kann auf zwei Weisen, je nach Richtung der Enthaltenseinsbeziehung, genutzt werden: Entweder kann der Suchraum fuer ein neues Schema reduziert werden oder es koennen die ersten passenden Stellen zu einem neuen Schema sofort praesentiert werden. Der gesamte Anfrageansatz wurde prototypisch zunaechst in einem Public-Domain Prolog System, spaeter im Constraintsystem ECLiPSe implementiert und mit Anfragen an XML-Dokumente getestet. Dabei wurden die Auswirkungen verschiedener Optimierungen getestet. Ausserdem wird eine grafische Benutzerschnittstelle zur Verfuegung gestellt. / Most of today's data is still stored in files rather than in databases. This fact has become even more evident with the growth of the World Wide Web in the 1990s. Because of that observation, the research area of semistructured data has evolved. Semistructured data is typically stored in documents and has an irregular, partial, and implicit structure. The thesis presents a new framework for querying semistructured data. Traditional database management requires design and ensures declarativity. The possibilities to design are limited in the field of semistructured data, thus, a more flexible approach is needed. We argue that semistructured data should be represented by a set of partial schemata rather than by one complete schema. Because of irregularities of the data, a complete schema would be very large and not representative. Instead, partial schemata can serve as good representations of parts of the data. While finding a complete schema turns out to be difficult, a database designer may be able to provide partial schemata for the database. Also, partial schemata can be extracted from user queries if the query language is designed appropriately. We suggest to split the notion of query into a ``What''- and a ``How''-part. Partial schemata represent the ``What''-part. They cover semantically richer concepts than database schemata traditionally do. Among these concepts are predicates, variable definitions, and path descriptions. Schemata can be used for query optimization, but they also give users hints on the content of the database. Finding the occurrences (matches) of such a schema forms the most important part of query execution. All queries of our approach, such as the focus query or the transformation query, are based on this matching. Query execution can be optimized using knowledge about containment relationships between different schemata. Our approach and the optimization techniques are conceptually modeled and implemented as a prototype on the basis of Constraint Satisfaction Problems (CSPs). CSPs form a general class of search problems for which many techniques and heuristics exist. A CSP consists of variables that have a domain associated to them. Constraints restrict the values that variables can simultaneously take. We transform the problem of finding the matches of a schema in a database to a CSP. We prove that under certain conditions the matches of a schema can be found without any search and in polynomial time. For optimization purposes the containment relationship between schemata is explored. We formulate a sufficient condition for schema containment and test it again using CSP techniques. The containment relationship can be used in two ways depending on the direction of the containment: It is either possible to reduce the search space when looking for matches of a schema, or it is possible to present the first few matches immediately without any search. Our approach has been implemented into the constraint system ECLiPSe and tested using XML documents.
162

Efficient query answering in peer data management systems

Roth, Armin 12 March 2012 (has links)
Peer-Daten-Management-Systeme (PDMS) bestehen aus einer hochdynamischen Menge heterogener, autonomer Peers. Die Peers beantworten Anfragen einerseits gegen lokal gespeicherte Daten und reichen sie andererseits nach einer Umschreibung anhand von Schema-Mappings an benachbarte Peers weiter. Solche aufgrund fehlender zentraler Komponenten eigentlich hoch- flexiblen Systeme leiden bei zunehmender Anzahl von Peers unter erheblichen Effi- zienzproblemen. Die Gründe hierfür liegen in der massiven Redundanz der Pfade im Netzwerk der Peers und im Informationsverlust aufgrund von Projektionen entlang von Mapping-Pfaden. Anwender akzeptieren in hochskalierten Umgebungen zum Datenaustausch in vielen Anwendungsszenarien Konzessionen an die Vollständigkeit der Anfrageergebnisse. Unser Ansatz sieht in der Vollständigkeit ein Optimierungsziel und verfolgt einen Kompromiß zwischen Nutzen und Kosten der Anfragebearbeitung. Hierzu schlagen wir mehrere Strategien für Peers vor, um zu entscheiden, an welche Nachbar-Peers Anfragen weitergeleitet werden. Peers schließen dabei Mappings von der Anfragebearbeitung aus, von denen sie ein geringes Verhältnis von Ergebnisgröße zu Kosten, also geringe Effizienz erwarten. Als Basis dieser Schätzungen wenden wir selbstadaptive Histogramme über die Ergebniskardinalität an und weisen nach, daß diese in dieser hochdynamischen Umgebung ausreichende Genauigkeit aufweisen. Wir schlagen einen Kompromiß zwischen der Nutzung von Anfrageergebnissen zur Anpassung dieser Metadaten-Statistiken und der Beschneidung von Anfrageplänen vor, um den entsprechenden Zielkonflikt aufzulösen. Für eine Optimierungsstrategie, die das für die Anfragebearbeitung verwendete Zeit-Budget limitiert, untersuchen wir mehrere Varianten hinsichtlich des Effizienzsteigerungspotentials. Darüber hinaus nutzen wir mehrdimensionale Histogramme über die Überlappung zweier Datenquellen zur gezielten Verminderung der Redundanz in der Anfragebearbeitung. / Peer data management systems (PDMS) consist of a highly dynamic set of autonomous, heterogeneous peers connected with schema mappings. Queries submitted at a peer are answered with data residing at that peer and by passing the queries to neighboring peers. PDMS are the most general architecture for distributed integrated information systems. With no need for central coordination, PDMS are highly flexible. However, due to the typical massive redundancy in mapping paths, PDMS tend to be very inefficient in computing the complete query result as the number of peers increases. Additionally, information loss is cumulated along mapping paths due to selections and projections in the mappings. Users usually accept concessions on the completeness of query answers in large-scale data sharing settings. Our approach turns completeness into an optimization goal and thus trades off benefit and cost of query answering. To this end, we propose several strategies that guide peers in their decision to which neighbors rewritten queries should be sent. In effect, the peers prune mappings that are expected to contribute few data. We propose a query optimization strategy that limits resource consumption and show that it can drastically increase efficiency while still yielding satisfying completeness of the query result. To estimate the potential data contribution of mappings, we adopted self-tuning histograms for cardinality estimation. We developed techniques that ensure sufficient query feedback to adapt these statistics to massive changes in a PDMS. Additionally, histograms can serve to maintain statistics on data overlap between alternative mapping paths. Building on them, redundant query processing is reduced by avoiding overlapping areas of the multi-dimensional data space.
163

Argumentieren beim Experimentieren in der Physik - Die Bedeutung personaler und situationaler Faktoren

Ludwig, Tobias 26 September 2017 (has links)
Argumentieren ist zentraler Bestandteil naturwissenschaftlicher Erkenntnisgewinnung. Dennoch gibt es bisher nur wenige Arbeiten, die untersuchen, wie Lernende auf der Grundlage selbstständig durchgeführter Experimente für bzw. gegen eine eigene Hypothese argumentieren. Vor diesem Hintergrund untersucht diese Arbeit, welchen Einfluss personale Faktoren (u. a. das Fachwissen und das situationale Interesse) und die Art der Lernumgebung (Realexperiment vs. Computersimulation) darauf nehmen, welche Typen von Argumenten verwendet werden. Ferner wird in dieser Arbeit untersucht, inwiefern die Verwendung dieser Argumentkategorien den Lernerfolg beeinflusst. Auf der Basis von Interviewdaten konnten zunächst für die vorgebrachten Argumente beim Wechseln bzw. Beibehalten eigener Hypothesen beim Experimentieren zehn Kategorien identifiziert werden (u. a. „Intuition“, „Expertenwissen“, „Messunsicherheiten“ sowie „Daten als Evidenz“). Zur quantitativen Erfassung wurde dann für die vier o. g. Argumentkategorien ein Likert-skaliertes Instrument entwickelt. Die aufgeführten Fragestellungen wurden schließlich in einer randomisierten Studie mit 938 Schülerinnen und Schülern untersucht. Bei der Untersuchung des Einflusses personaler Faktoren zeigt sich u. a., dass Lernende in einer Argumentation umso eher Daten als Evidenz heranziehen, je höher das fachliche Vorwissen ist. Die Verwendung dieser Argumentkategorie erhöht wiederum die Wahrscheinlichkeit dafür, dass Lernende nach dem Experimentieren eine fachlich adäquate Hypothese aufstellen. Dies impliziert, dass der Umgang mit experimentellen Daten und Beobachtungen im Physikunterricht stärker als bisher berücksichtigt werden muss, z. B. durch eine explizitere Förderung von Fähigkeiten zum Umgang mit experimentellen Daten. Bis auf einen gut erklärbaren Unterschied können grundlegende Unterschiede beim Experimentieren zwischen Gruppen, die mit einem Real- bzw. Computerexperiment gearbeitet haben, nicht belegt werden. / Argumentation from data and evidence evaluation is widely seen as a scientific core practice. One approach to engage students in a meaningful argumentation practice is to provide lab work situations where they can construct hypotheses on the basis of their own prior knowledge and consequently evaluate these hypotheses in light of self-collected data. However, until recently, only little research has analyzed students' argumentation from data. Against this backdrop this research seeks to identify: a) the influences of personal factors (such as content knowledge and situational interest); b) the type of learning environment as a situational factor (real vs. virtual experiment) on the use of different categories of argument (such as Intuition, Appeal to Authority, Measurement Uncertainties (explicit) and Data as Evidence); c) the influence of argumentation on learning outcomes through experimentation in school labs. First, an interview-study was used to identify the different types of arguments used by students. Analyses focused on the nature of justification in argument and revealed ten different categories students use while arguing for or against hypotheses. As a next step, four out of ten categories were operationalized by means of a Likert-scaled instrument to assess the use of different types of argument in a valid and reliable manner. The findings from a randomized study among 938 secondary school students in a lab work setting indicate, among others, that content knowledge is positively related to the use of data as evidence. Again, the use of data as evidence increases the probability of stating a correct hypothesis after conducting the experiment. This implies that the ability to deal with data and measurement uncertainties should be better fostered in physics classes. Besides one explicable difference, no evidence was found, which supports the hypothesis that students' argumentation would differ while working with hands-on materials vs. computer simulations.
164

Neue Ansätze zur Auswertung und Klassiffizierung von sehr hochauflösenden Daten

Hoffmann, Andrea 10 May 2001 (has links)
Auf dem Luftbildsektor vollziehen sich seit einigen Jahren grundsätzliche Veränderungen. Digitale flugzeuggetragene Kamerasysteme und hochauflösende Satellitensysteme bieten neue Potentiale der Datenakquise und -auswertung. Diese digitalen Datensätze werden in absehbarer Zeit das herkömmliche Luftbild ersetzen und Kartographie, Photogrammetrie und Fernerkundung erheblich verändern. Die neue Generation von digitalen Kameras wird zwei zentrale Bereiche der Kartographie einschneidend beeinflussen: Die Orthokartenherstellung und die Kartenaktualisierung. Der Bedarf aktueller Geobasisdaten macht Orthobilder besonders für Geoinformationssysteme interessant. Bisher standen als Basisdaten für Orthobildkarten großer Auflösung (> 1:10 000) lediglich Luftbilder zur Verfügung. Es wird gezeigt, daß die digitalen Daten der neuen Kamerageneration zur Erstellung von Orthobildkarten operationell einsetzbar sind. Durch die automatisierte Prozessierung werden sie den Anforderungen an schnelle aktuelle Kartenprodukte gerecht, mit ihrer hochgenauen Navigation bieten die digitalen Systeme die automatisierte Erstellung geometrisch sehr genauer Datensätze, die mit herkömmlichen Mitteln nur sehr aufwendig erreicht werden könnten. Ein Vergleich mit Luftbildern zeigt und bewertet die Unterschiede beider Aufnahmesysteme. Untersucht wurden Datensätze der digitalen Kamera HRSC-A des DLR Adlershof. Mit der HRSC-A (High Resolution Stereo Camera - Airborne) und der speziell für die Prozessierung dieser Daten entwickelten Software steht den Geoinformationsnutzern erstmals ein operationelles System zur Verfügung, das vollständig digital und vollautomatisch hochauflösende Orthobilddaten produziert. Die Pixelauflösung liegt zwischen 10 und 40 cm (Flughöhe von 2500 bis 10 000 m). Als vorteilhaft für die Analyse erweist sich die gleichzeitige Verfügbarkeit von hochauflösenden panchromatischen und multispektralen Datensätzen, die Verfügbarkeit eines hochauflösenden Geländemodells (x,y: 50 cm bzw. 1m, z: 10 cm) und die hohe Genauigkeit der Datensätze. Die Arbeit diskutiert die Problematik einer automatisierten Auswertung hochauflösender Daten. Diese Datensätze stellen neue Anforderungen an Auswertungsverfahren. Der Detailreichtum erschwert die Interpretation, gröbere räumliche Auflösungen glätten die Komplexität innerhalb heterogener Landnutzungen (besonders in urbanen Gebieten) und erleichtern so eine automatische Interpretation. Es wird gezeigt, daß "klassische" Auswertungsmethoden wie pixelbasierte Klassifizierungen (überwacht oder unüberwacht) zur Auswertung der hochauflösenden Daten nur bedingt geeignet sind. Im Rahmen der Arbeit werden zwei neue Ansätze entwickelt und untersucht, die nicht mehr pixelweise, sondern flächenhaft und objektorientiert arbeiten. Ein per-parcel-Ansatz zeigt gute Ergebnisse bei der Auswertung. Das Verfahren ermittelt zunächst mittels einer unüberwachten Klassifizierung Szenekomponenten in definierten Untereinheiten (parcel), die den Inhalt des Datensatzes repräsentieren. Die klassifizierten Pixel innerhalb der definierten parcel-Einheiten werden anschließend extrahiert und ihr Verhältnis zueinander weiter ausgewertet. Ergebnis ist zunächst die prozentuelle Verteilung der Szenekomponenten in den Einheiten, anschließend werden Zusammenhänge zwischen den vorhandenen Komponenten und der Landoberfläche definiert. Untersucht wurde ferner ein objektorientierter Ansatz, der die Interpretation von Einzelobjekten erlaubt. Hierbei wird das Bild in homogene Objekte segmentiert, die die Grundlage für die weitere Analyse bilden. Der diskutierte Ansatz besteht aus zwei Strategien: Mittels multiskalarer Segmentierung wird der Bilddatensatz zunächst in Einheiten strukturiert, verschiedene Maßstabsebenen sind gleichzeitig verfügbar. Grundidee ist die Schaffung eines hierarchischen Netzes von Bildobjekten. Diese gefundenen Einheiten werden anschließend spektral mittels Nearest Neighbour oder wissensbasiert mittels Fuzzy Logic Operatoren klassifiziert. Der Ansatz zeigt überzeugende Ergebnisse bei einer automatisierten Hauserkennung und der Aktualisierung bestehender Vektordatensätze. Die Einteilung der Bilddaten in Segmente, also zunächst eine Abstrahierung der Information vom Einzelpixel zu größeren semantischen Einheiten und die weitere Bearbeitung dieser Segmente erwies sich als sinnvoll. Es wurde ferner gezeigt, daß für die Analyse in städtischen Räumen die Einbeziehung von Oberflächeninformation unbedingt erforderlich ist. Durch die spektrale Ähnlichkeit von Bildelementen bietet die Einbeziehung des Oberflächenmodells die Möglichkeit, mittels einer zusätzlich bekannten Information über die Höhe der Objekte, diese Klassen zu trennen. / Remote sensing goes through times of fundamental changes. New digital airborne camera systems offer new potentials for data aquisition and interpretation. These data sets will replace aerial photography in the near future and change photogrammetry, cartography and remote sensing. The new camera generation will influence two central domains of cartography: Orthomap production and map updating. As a base for in-time updating orthomaps became more and more important. Up to now large scale mapping (scales > 1:10,000) is done nearly exclusively with aerial photographs. It can be shown that the digital data sets of the new camera generation can be used operationally for the production of orthomaps. A fully automated processing line provides the ortho images very shortly after aquisition, due to the used high precision navigation system the accuracy of the data is very high, even very big scales can be realized. A comparison of digital cameras and aerial photos discusses and rates the properties of the different aquisition systems and data sets. For interpretation data sets of the digital camera HRSC-A were used. The High Resolution Stereo Camera - Airborne (HRSC-A) digital photogrammetric camera and its processing software provides the geoinformation industry for the first time with an entirely digital and fully automatic process to produce highly accurate digital image data. The pixel size ranges between 10 and 40 cm (flight altitude 2500 - 10,000 m). The airborne camera combines high resolution, photogrammetric accuracy and all-digital acquisition and provides both multispectral and elevation information. The pushbroom instrument provides digital ortho-images and digital surface models with an accuracy of 10-20 cm. The use of this wide range of image information showed to be very helpful for data analysis. This investigation focuses on the problems of automated interpretation of high-resolution data. These data sets make high demands on automated interpretation procedures. The richness of details depicted in the data sets complicates the interpretation, coarser spatial resolutions smooth out spatial complexity within heterogeneous land cover types, such as urban, and make an automated interpretation easier. This report shows that conventional interpretation techniques like pixelbased classification (supervised or unsupervised) do not lead to satisfactory results. Two new object-oriented and region-oriented approaches for the interpretation of high resolution data sets were developped and discussed. The parcel-based approach showed good results in interpretation of the data. The proposed methodology begins with an unsupervised per-pixel classification to identify spectral clusters which represent the range of scene components present in the pre-defined land parcels. The per-parcel analysis extracts the pixels classified as scene components within the land parcel under examination and calculates the total numbers and fractions for each scene component present. To identify land cover types not represented by scene components at the land parcel level, it is necessary to process the scene component information and infer relationships between the scene components present and land cover type. A set of rules was devised to identify a range of land cover types from the mixtures of scene components found within each land parcel. Secondly an object-oriented and multi-scale image analysis approach was used for the interpretation of single objects. The procedure contains two basic domains. The strategy is to build up a hierarchical network of image objects which allows to represent the image information content at different resolutions (scales) simultaneously. In a second step the image objects were classified by means of fuzzy logic, either on features of objects and/or on relations between networked objects operating on the semantic network. The procedure showed very good results in detecting houses and updating vector data sets. Segmenting the data in semantic units and performing further analysis on these units showed to be very helpful for interpretation. It could be shown that for analysis of urban areas the use of a Digital Surface Model is necessary. Due to the spectral similarities of image elements the elevation information offers an important additional tool for analysis.
165

Konzeption und Entwicklung einer E-Learning-Lektion zur Arbeit mit der Kartenherstellungssoftware OCAD

Goerlich, Franz 15 May 2012 (has links) (PDF)
In dieser Bachelorarbeit wird eine Beispiel-E-Learning-Lektion zum Import von GPS Daten in die Kartenherstellungssoftware OCAD erstellt. Dabei liegt im theoretischen Teil der Hauptschwerpunkt auf nutzergenerierten Daten (Volunteered Geographic Infor-mation; kurz: VGI). Nach einer kurzen, allgemeinen Einführung wird auf die Bedeutung der Kartographie im Zusammenhang mit VGI eingegangen. Der zweite Teil beinhaltet Didaktik mit Schwerpunkt E-Learning. Dazu werden das Goal Based Scenario Modell und das Cognitive Apprenticeship Modell kurz vorgestellt und anschließend das Projekt GITTA mit der enthaltenen ECLASS-Struktur näher erklärt. Den immer wichtiger werdenden Content Management Systemen (CMS) widmet sich der dritte Theorieteil. Für die Realisierung der zu erstellenden Lektion wird das Open-Source CMS Joomla! ausführlicher erläutert. Die Implementierung beschreibt die Umsetzung der E-Leraning-Lektion mittels Joomla! und die Nutzung des ECLASS-Modells. Bevor auf die Vorgehensweise eingegangen wird, enthält der Implementierungsteil die Erstellung eines groben Gesamtkonzeptes für eine komplette E-Leraning-Anwendung zu OCAD mit entsprechenden Erläuterungen. Anschließend folgen eine Zusammenfassung und ein Ausblick über die Weiterführung der E-Learning-Anwendung.
166

Approaches to analyse and interpret biological profile data

Scholz, Matthias January 2006 (has links)
Advances in biotechnologies rapidly increase the number of molecules of a cell which can be observed simultaneously. This includes expression levels of thousands or ten-thousands of genes as well as concentration levels of metabolites or proteins. <br><br> Such Profile data, observed at different times or at different experimental conditions (e.g., heat or dry stress), show how the biological experiment is reflected on the molecular level. This information is helpful to understand the molecular behaviour and to identify molecules or combination of molecules that characterise specific biological condition (e.g., disease). <br><br> This work shows the potentials of component extraction algorithms to identify the major factors which influenced the observed data. This can be the expected experimental factors such as the time or temperature as well as unexpected factors such as technical artefacts or even unknown biological behaviour. <br><br> Extracting components means to reduce the very high-dimensional data to a small set of new variables termed components. Each component is a combination of all original variables. The classical approach for that purpose is the principal component analysis (PCA). <br><br> It is shown that, in contrast to PCA which maximises the variance only, modern approaches such as independent component analysis (ICA) are more suitable for analysing molecular data. The condition of independence between components of ICA fits more naturally our assumption of individual (independent) factors which influence the data. This higher potential of ICA is demonstrated by a crossing experiment of the model plant <i>Arabidopsis thaliana</i> (Thale Cress). The experimental factors could be well identified and, in addition, ICA could even detect a technical artefact. <br><br> However, in continuously observations such as in time experiments, the data show, in general, a nonlinear distribution. To analyse such nonlinear data, a nonlinear extension of PCA is used. This nonlinear PCA (NLPCA) is based on a neural network algorithm. The algorithm is adapted to be applicable to incomplete molecular data sets. Thus, it provides also the ability to estimate the missing data. The potential of nonlinear PCA to identify nonlinear factors is demonstrated by a cold stress experiment of <i>Arabidopsis thaliana</i>. <br><br> The results of component analysis can be used to build a molecular network model. Since it includes functional dependencies it is termed functional network. Applied to the cold stress data, it is shown that functional networks are appropriate to visualise biological processes and thereby reveals molecular dynamics. / Fortschritte in der Biotechnologie ermöglichen es, eine immer größere Anzahl von Molekülen in einer Zelle gleichzeitig zu erfassen. Das betrifft sowohl die Expressionswerte tausender oder zehntausender Gene als auch die Konzentrationswerte von Metaboliten oder Proteinen. <br><br> Diese Profildaten verschiedener Zeitpunkte oder unterschiedlicher experimenteller Bedingungen (z.B. unter Stressbedingungen wie Hitze oder Trockenheit) zeigen, wie sich das biologische Experiment auf molekularer Ebene widerspiegelt. Diese Information kann genutzt werden, um molekulare Abläufe besser zu verstehen und um Moleküle oder Molekül-Kombinationen zu bestimmen, die für bestimmte biologische Zustände (z.B.: Krankheit) charakteristisch sind. <br><br> Die Arbeit zeigt die Möglichkeiten von Komponenten-Extraktions-Algorithmen zur Bestimmung der wesentlichen Faktoren, die einen Einfluss auf die beobachteten Daten ausübten. Das können sowohl die erwarteten experimentellen Faktoren wie Zeit oder Temperatur sein als auch unerwartete Faktoren wie technische Einflüsse oder sogar unerwartete biologische Vorgänge. <br><br> Unter der Extraktion von Komponenten versteht man die Reduzierung dieser stark hoch-dimensionalen Daten auf wenige neue Variablen, die eine Kombination aus allen ursprünglichen Variablen darstellen und als Komponenten bezeichnet werden. Die Standard-Methode für diesen Zweck ist die Hauptkomponentenanalyse (PCA). <br><br> Es wird gezeigt, dass - im Vergleich zur nur die Varianz maximierenden PCA - moderne Methoden wie die Unabhängige Komponentenanalyse (ICA) für die Analyse molekularer Datensätze besser geeignet sind. Die Unabhängigkeit von Komponenten in der ICA entspricht viel besser unserer Annahme individueller (unabhängiger) Faktoren, die einen Einfluss auf die Daten ausüben. Dieser Vorteil der ICA wird anhand eines Kreuzungsexperiments mit der Modell-Pflanze <i>Arabidopsis thaliana</i> (Ackerschmalwand) demonstriert. Die experimentellen Faktoren konnten dabei gut identifiziert werden und ICA erkannte sogar zusätzlich einen technischen Störfaktor. <br><br> Bei kontinuierlichen Beobachtungen wie in Zeitexperimenten zeigen die Daten jedoch häufig eine nichtlineare Verteilung. Für die Analyse dieser nichtlinearen Daten wird eine nichtlinear erweiterte Methode der PCA angewandt. Diese nichtlineare PCA (NLPCA) basiert auf einem neuronalen Netzwerk-Algorithmus. Der Algorithmus wurde für die Anwendung auf unvollständigen molekularen Daten erweitert. Dies ermöglicht es, die fehlenden Werte zu schätzen. Die Fähigkeit der nichtlinearen PCA zur Bestimmung nichtlinearer Faktoren wird anhand eines Kältestress-Experiments mit <i>Arabidopsis thaliana</i> demonstriert. <br><br> Die Ergebnisse aus der Komponentenanalyse können zur Erstellung molekularer Netzwerk-Modelle genutzt werden. Da sie funktionelle Abhängigkeiten berücksichtigen, werden sie als Funktionale Netzwerke bezeichnet. Anhand der Kältestress-Daten wird demonstriert, dass solche funktionalen Netzwerke geeignet sind, biologische Prozesse zu visualisieren und dadurch die molekularen Dynamiken aufzuzeigen.
167

Thermodynamische Untersuchungen von Phasengleichgewichten in komplexen Systemen mit assoziierenden Komponenten / Thermodynamic investigations of phase equilibria in complex systems with associating compounds

Grenner, Andreas 27 September 2006 (has links) (PDF)
The knowledge of phase equilibrium is essential for the planning and realisation of separation processes in chemical engineering. In this work an equipment for measurement of precise isothermal vapour–liquid equilibria (VLE) using the dynamic method was developed. The pool of experimental data for cyclohexylamine was extended significantly. Isothermal VLE were measured in 3 binary and 4 ternary systems, liquid-liquid equilibria (LLE) were measured in 4 ternary systems and in one quarternary system, in each case for two temperatures, whereas in 2 ternary systems and in the quarternary system even liquid-liquid-liquid equilibria (LLLE) occur. Furthermore, activity coefficients at infinite dilution in 4 binary systems and excess molar volumes in 7 binary systems have been estimated. Binary VLE and LLE data of the components water, octane, cyclohexylamine and aniline of this work and data from literature were fitted with the activity coefficient models NRTL and UNIQUAC, as well as with the equations of state Elliott-Suresh-Donohue (ESD) and Perturbed-Chain-Statistical Associating Fluid Theory (PC-SAFT) which contain both a term to consider explicit hydrogen bonds. In addition, the predictive capabilities of the equations of state (EoS) were investigated. With parameters obtained by simultaneous fitting of VLE and, if available, LLE data similar results with the models NRTL and UNIQUAC could be obtained. Each time the deviations for the vapour pressure were lower than 3 % and lower than 2 % in vapour phase composition. The deviations, in three out of the six systems for vapour pressure and vapour phase composition, were larger with the ESD-EoS than with the activity coefficient models. NRTL, UNIQUAC and ESD delivered similar results with the simultaneously fitted parameters for the LLE, whereas the deviations were lower than 5 %. Comparable results were delivered by the ESD-EoS and PC-SAFT for the fitting and the prediction in the investigated binary systems. Also a fitting for NRTL, UNIQUAC and ESD was carried out, but only to one data set. The intention was to show the effect of parameterization on prediction in ternary systems. Predictions were made for VLE and LLE in ternary systems of the above mentioned components, solely with interaction parameters fitted to binary data. For the models NRTL, UNIQUAC und ESD predictions of simultaneously and separately fitted parameters are presented. It is shown that with parameters simultaneously fitted to several data sets significantly better results could be obtained compared to the parameters separately fitted to a single data set. Additionally, for the equations of state ESD and PC-SAFT predictions for the LL(L)E in ternary systems are compared, but here only with separately fitted parameters. For three out of the four investigated ternary systems a too large miscibility gap is calculated with the models NRTL, UNIQUAC and ESD. In the system water+octane+aniline good results could be obtained for the prediction of the LLLE. In summary the equations of state deliver similar results. In the systems water+octane+CHA and octane+CHA+aniline also too large two phase regions were delivered. Better predictions could be obtained in the systems water+octane+aniline and water+CHA+aniline. The forecasts of the VLE in the ternary systems are good with the simultaneously fitted parameters. The deviations for the vapour phase compositions are as for the vapour pressures under 6 %. Larger deviations occur for the system water+octane+aniline only. As evaluation result for the thermodynamic models can be mentioned that the activity coefficient models NRTL and UNIQUAC deliver somewhat better results for the fitting of the binary data than the equations of state ESD and PC-SAFT however, with a larger number of adjustable parameters. The prediction of the VLE is satisfactorily in the ternary systems and with similar quality of all considered models. Larger deviations occur for the prediction of the LL(L)E in the ternary systems. The results of the ESD-EoS were, with one exception, each time better than those of the activity coefficient models. There is no significant difference between the prediction of the ternary systems for the ESD-EoS and the PC-SAFT.
168

RFID-Techniken und Datenschutzrecht - Perspektiven der Regulierung

Polenz, Sven 08 April 2008 (has links) (PDF)
Die Arbeit befasst sich mit der Frage, inwiefern das Bundesdatenschutzgesetz im nichtöffentlichen Bereich beim Einsatz von RFID-Technik ein angemessenes Schutzniveau bietet und in welcher Form Regulierungsmaßnahmen erforderlich sind. RFID bezeichnet ein Verfahren zur automatischen Identifizierung von Objekten mittels Funk. Dabei dienen kleine Transponder als Speicherbausteine für anonyme oder personenbezogene Daten. Diese Daten können mithilfe von Lesegeräten aus unterschiedlichen Distanzen erfasst und sichtbar gemacht werden. Im Anschluss erfolgt die Speicherung der ausgelesenen Informationen in einer zentralen Datenbank sowie die Verknüpfung mit anderen Daten. RFID-Technik bietet die Basis für zahlreiche sinnvolle Anwendungen in Industrie und Handel. So können Arbeitsabläufe optimiert und beschleunigt werden. Soweit ein Umgang mit personenbezogenen Daten erfolgt, sind jedoch datenschutzrechtliche Bestimmungen zu beachten. Für die verschiedenen Einsatzmöglichkeiten, wo personenbezogene Daten verarbeitet werden, kann zum gegenwärtigen Zeitpunkt überwiegend nur eine szenische Betrachtung zur Darstellung der datenschutzrechtlichen Herausforderungen dienen. Dabei sollen auch Überlegungen zur Technikfolgenabschätzung in einer Welt der allgegenwärtigen Datenverarbeitung in die Untersuchung einfließen. Anhand von Beispielen wird analysiert, inwieweit die Bestimmungen des Bundesdatenschutzgesetzes anwendbar sind und einen ausreichenden Rahmen für Maßnahmen zum Schutz des allgemeinen Persönlichkeitsrechtes von Betroffenen bieten. In diesem Sinne wird der Begriff der „Regulierung“ verwendet. Schutzmaßnahmen können in verschiedenen Formen zum Einsatz kommen, wobei insbesondere die Perspektiven einer Selbstkontrolle an Bedeutung gewinnen. Dabei werden bekannte Lösungsansätze aus dem Bereich der „regulierten Selbstregulierung“ für den Umgang mit RFID-Technik fruchtbar gemacht und umfassend diskutiert. Der Schwerpunkt liegt hier in der Prüfung technischer Schutzmaßnahmen. Weiterhin wird erörtert, ob die Schaffung von flankierenden gesetzlichen Regelungen erforderlich ist. Bei der Beurteilung der datenschutzrechtlichen Fragen werden europarechtliche und verfassungsrechtliche Aspekte in die Untersuchung einbezogen.
169

Alterung und Arbeitsmarkt

Schneider, Lutz 08 March 2011 (has links) (PDF)
Die vorliegende Untersuchung hat die Folgen der Alterung von Beschäftigten auf den Arbeitsmarkt zum Gegenstand. Namentlich werden die Produktivitäts- und Lohn-, die Innovations- sowie die Mobilitätseffekte des Alters auf empirischem Weg analysiert. Der räumliche Fokus liegt dabei auch dem deutschen Arbeitsmarkt; als Datenbasis fungieren Personen- und Betriebsdaten des Instituts für Arbeitsmarkt- und Berufsforschung Nürnberg (IAB). Mit Blick auf die Produktivitäts- und Lohnwirkung des Alters liefert die ökonometrische Analyse von Betrieben des Verarbeitenden Gewerbes Hinweise auf einen positiven Einfluss des Anteils der mittleren Jahrgänge auf die betriebliche Produktivität. Es bestätigt sich der umgekehrt u-förmige Verlauf des Alters-Produktivitätsprofils, der auch in anderen Ländern gefunden wurde. Die Analyse der Produktivitäts-Lohn-Relation im Altersverlauf erbringt ferner deutliche Belege für ein ungleiches Muster beider Profile. Insbesondere die Altersgruppe der 41-50-Jährigen scheint im Vergleich zur Referenzgruppe der über 50-Jährigen aber auch zur Gruppe der 15-30-Jährigen deutlich unter Produktivität entlohnt zu werden. Hinsichtlich des Einflusses der Altersstruktur auf das betriebliche Innovationsverhalten erbringt die mikroökonometrische Untersuchung ebenfalls Belege für einen umgekehrt u-förmigen Verlauf – die Gruppe der Beschäftigten im Alter von ca. 40 Jahren treibt demnach den betrieblichen Innovationsprozess am stärksten. Ein weiterer Befund der Analyse betrifft die Wirkung von Altersheterogenität. Der erwartet positive Innovationseinfluss einer altersgemischten Belegschaft konnte hier nicht belegt werden. Was die Mobilitätseffekte des Alters betrifft, so besagen die Ergebnisse der Arbeit, dass das ein höheres Alter von Erwerbstätigen die – betriebliche und berufliche – Job-Mobilität dämpft. Das geschätzte Mehrgleichungsmodell macht sichtbar, dass sich der Lohn Älterer durch einen Wechsel nur vergleichsweise wenig oder überhaupt nicht verbessern lässt, mithin für die meisten Älteren keine finanziellen Mobilitätsanreize gegeben sind. Die zweite Erkenntnis der Analyse besteht darin, dass das Alter auch nach Kontrolle dieses für Ältere fehlenden Lohnanreizes immer noch signifikant negativ auf die Wechselneigung wirkt. Neben dem Beitrag zur wirtschaftswissenschaftlichen Forschung haben die Untersuchungsergebnisse auch Bedeutung für betriebliches und staatliches Handeln. Allgemein gesprochen sind beide Ebenen aufgefordert, die Herausforderungen des demographischen Wandels für die Produktivitätsentwicklung zu bewältigen. Dies ist einerseits erforderlich, um die nötigen Ressourcen für eine Gesellschaft zu generieren, in der sich ein steigender Anteil im nicht-erwerbsfähigen Alter befindet. Andererseits ist dies unerlässlich, um den wachsenden Anteil der Älteren, die noch im erwerbsfähigen Alter sind, mit echten Beschäftigungschancen auszustatten und so Erwerbstätigkeit im Kontext einer alternden Gesellschaft zu unterstützen. / The present study analyses the labour market effect of workers’ ageing. Explicitly, the impact of age on productivity and wages, on innovation as well as on mobility is explored empirically. The econometric analyses are based on firm and employment data from the Institute for Employment Research (IAB) and, thus, refer to the labour market of Germany. Regarding the productivity and wage effects of age the econometric results confirm a positive correlation between firm productivity and the share of middle-aged employees (41-50 years old) within the manufacturing sector. Hence, the results provide evidence of an inverted u-shaped age-productivity profile in this sector also found for other countries. Furthermore, age-wage and age-productivity profiles seem to follow unequal patterns. Compared to the group of the 15-30 and the 51 and above years old workers the group of middle-aged employees earn less than a productivity based wage scheme would require. In terms of age effects on innovativeness the micro-econometric analysis again reveals an inverted u-shaped profile. Workers aged around 40 years seem to act as key driver for innovation activities within firms. An additional finding concerns the impact of age diversity on innovation. The expected positive effect of a heterogeneous age structure is not confirmed by the data. With respect to labour market mobility results are in favour of a negative correlation between age and job mobility either in terms of changing professions or firms. The estimation of a multi equation model verifies that expected wages of older workers do not or only marginally increase due to job mobility, so, financial incentives to change jobs are very low. Yet, even after controlling the absent wage incentive older employees still remain more immobile than younger workers. Altogether, these results should not only be of academic interest but also informative for actors on the firm and the governmental level. Both sides are asked to cope with the challenges of demographic change. Only by maintaining productivity and innovativeness until old ages the necessary resources can be generated to preserve an economy’s prosperity even if the share of non-active population is increasing by demographic developments. Secondly, enhancing productivity is essential to ensure employability of older persons and to sustain the size of workforce even in the circumstances of an ageing economy.
170

Event-driven mobile financial Information-Services : design of an intraday decision support System /

Muntermann, Jan. January 2007 (has links)
University, Diss.--Zugl.: Frankfurt am Main, 2007.

Page generated in 0.037 seconds