• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 157
  • 133
  • 25
  • 4
  • 1
  • 1
  • 1
  • Tagged with
  • 319
  • 235
  • 153
  • 143
  • 137
  • 137
  • 55
  • 38
  • 37
  • 31
  • 28
  • 25
  • 22
  • 22
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Approaches to analyse and interpret biological profile data

Scholz, Matthias January 2006 (has links)
Advances in biotechnologies rapidly increase the number of molecules of a cell which can be observed simultaneously. This includes expression levels of thousands or ten-thousands of genes as well as concentration levels of metabolites or proteins. <br><br> Such Profile data, observed at different times or at different experimental conditions (e.g., heat or dry stress), show how the biological experiment is reflected on the molecular level. This information is helpful to understand the molecular behaviour and to identify molecules or combination of molecules that characterise specific biological condition (e.g., disease). <br><br> This work shows the potentials of component extraction algorithms to identify the major factors which influenced the observed data. This can be the expected experimental factors such as the time or temperature as well as unexpected factors such as technical artefacts or even unknown biological behaviour. <br><br> Extracting components means to reduce the very high-dimensional data to a small set of new variables termed components. Each component is a combination of all original variables. The classical approach for that purpose is the principal component analysis (PCA). <br><br> It is shown that, in contrast to PCA which maximises the variance only, modern approaches such as independent component analysis (ICA) are more suitable for analysing molecular data. The condition of independence between components of ICA fits more naturally our assumption of individual (independent) factors which influence the data. This higher potential of ICA is demonstrated by a crossing experiment of the model plant <i>Arabidopsis thaliana</i> (Thale Cress). The experimental factors could be well identified and, in addition, ICA could even detect a technical artefact. <br><br> However, in continuously observations such as in time experiments, the data show, in general, a nonlinear distribution. To analyse such nonlinear data, a nonlinear extension of PCA is used. This nonlinear PCA (NLPCA) is based on a neural network algorithm. The algorithm is adapted to be applicable to incomplete molecular data sets. Thus, it provides also the ability to estimate the missing data. The potential of nonlinear PCA to identify nonlinear factors is demonstrated by a cold stress experiment of <i>Arabidopsis thaliana</i>. <br><br> The results of component analysis can be used to build a molecular network model. Since it includes functional dependencies it is termed functional network. Applied to the cold stress data, it is shown that functional networks are appropriate to visualise biological processes and thereby reveals molecular dynamics. / Fortschritte in der Biotechnologie ermöglichen es, eine immer größere Anzahl von Molekülen in einer Zelle gleichzeitig zu erfassen. Das betrifft sowohl die Expressionswerte tausender oder zehntausender Gene als auch die Konzentrationswerte von Metaboliten oder Proteinen. <br><br> Diese Profildaten verschiedener Zeitpunkte oder unterschiedlicher experimenteller Bedingungen (z.B. unter Stressbedingungen wie Hitze oder Trockenheit) zeigen, wie sich das biologische Experiment auf molekularer Ebene widerspiegelt. Diese Information kann genutzt werden, um molekulare Abläufe besser zu verstehen und um Moleküle oder Molekül-Kombinationen zu bestimmen, die für bestimmte biologische Zustände (z.B.: Krankheit) charakteristisch sind. <br><br> Die Arbeit zeigt die Möglichkeiten von Komponenten-Extraktions-Algorithmen zur Bestimmung der wesentlichen Faktoren, die einen Einfluss auf die beobachteten Daten ausübten. Das können sowohl die erwarteten experimentellen Faktoren wie Zeit oder Temperatur sein als auch unerwartete Faktoren wie technische Einflüsse oder sogar unerwartete biologische Vorgänge. <br><br> Unter der Extraktion von Komponenten versteht man die Reduzierung dieser stark hoch-dimensionalen Daten auf wenige neue Variablen, die eine Kombination aus allen ursprünglichen Variablen darstellen und als Komponenten bezeichnet werden. Die Standard-Methode für diesen Zweck ist die Hauptkomponentenanalyse (PCA). <br><br> Es wird gezeigt, dass - im Vergleich zur nur die Varianz maximierenden PCA - moderne Methoden wie die Unabhängige Komponentenanalyse (ICA) für die Analyse molekularer Datensätze besser geeignet sind. Die Unabhängigkeit von Komponenten in der ICA entspricht viel besser unserer Annahme individueller (unabhängiger) Faktoren, die einen Einfluss auf die Daten ausüben. Dieser Vorteil der ICA wird anhand eines Kreuzungsexperiments mit der Modell-Pflanze <i>Arabidopsis thaliana</i> (Ackerschmalwand) demonstriert. Die experimentellen Faktoren konnten dabei gut identifiziert werden und ICA erkannte sogar zusätzlich einen technischen Störfaktor. <br><br> Bei kontinuierlichen Beobachtungen wie in Zeitexperimenten zeigen die Daten jedoch häufig eine nichtlineare Verteilung. Für die Analyse dieser nichtlinearen Daten wird eine nichtlinear erweiterte Methode der PCA angewandt. Diese nichtlineare PCA (NLPCA) basiert auf einem neuronalen Netzwerk-Algorithmus. Der Algorithmus wurde für die Anwendung auf unvollständigen molekularen Daten erweitert. Dies ermöglicht es, die fehlenden Werte zu schätzen. Die Fähigkeit der nichtlinearen PCA zur Bestimmung nichtlinearer Faktoren wird anhand eines Kältestress-Experiments mit <i>Arabidopsis thaliana</i> demonstriert. <br><br> Die Ergebnisse aus der Komponentenanalyse können zur Erstellung molekularer Netzwerk-Modelle genutzt werden. Da sie funktionelle Abhängigkeiten berücksichtigen, werden sie als Funktionale Netzwerke bezeichnet. Anhand der Kältestress-Daten wird demonstriert, dass solche funktionalen Netzwerke geeignet sind, biologische Prozesse zu visualisieren und dadurch die molekularen Dynamiken aufzuzeigen.
162

Thermodynamische Untersuchungen von Phasengleichgewichten in komplexen Systemen mit assoziierenden Komponenten / Thermodynamic investigations of phase equilibria in complex systems with associating compounds

Grenner, Andreas 27 September 2006 (has links) (PDF)
The knowledge of phase equilibrium is essential for the planning and realisation of separation processes in chemical engineering. In this work an equipment for measurement of precise isothermal vapour–liquid equilibria (VLE) using the dynamic method was developed. The pool of experimental data for cyclohexylamine was extended significantly. Isothermal VLE were measured in 3 binary and 4 ternary systems, liquid-liquid equilibria (LLE) were measured in 4 ternary systems and in one quarternary system, in each case for two temperatures, whereas in 2 ternary systems and in the quarternary system even liquid-liquid-liquid equilibria (LLLE) occur. Furthermore, activity coefficients at infinite dilution in 4 binary systems and excess molar volumes in 7 binary systems have been estimated. Binary VLE and LLE data of the components water, octane, cyclohexylamine and aniline of this work and data from literature were fitted with the activity coefficient models NRTL and UNIQUAC, as well as with the equations of state Elliott-Suresh-Donohue (ESD) and Perturbed-Chain-Statistical Associating Fluid Theory (PC-SAFT) which contain both a term to consider explicit hydrogen bonds. In addition, the predictive capabilities of the equations of state (EoS) were investigated. With parameters obtained by simultaneous fitting of VLE and, if available, LLE data similar results with the models NRTL and UNIQUAC could be obtained. Each time the deviations for the vapour pressure were lower than 3 % and lower than 2 % in vapour phase composition. The deviations, in three out of the six systems for vapour pressure and vapour phase composition, were larger with the ESD-EoS than with the activity coefficient models. NRTL, UNIQUAC and ESD delivered similar results with the simultaneously fitted parameters for the LLE, whereas the deviations were lower than 5 %. Comparable results were delivered by the ESD-EoS and PC-SAFT for the fitting and the prediction in the investigated binary systems. Also a fitting for NRTL, UNIQUAC and ESD was carried out, but only to one data set. The intention was to show the effect of parameterization on prediction in ternary systems. Predictions were made for VLE and LLE in ternary systems of the above mentioned components, solely with interaction parameters fitted to binary data. For the models NRTL, UNIQUAC und ESD predictions of simultaneously and separately fitted parameters are presented. It is shown that with parameters simultaneously fitted to several data sets significantly better results could be obtained compared to the parameters separately fitted to a single data set. Additionally, for the equations of state ESD and PC-SAFT predictions for the LL(L)E in ternary systems are compared, but here only with separately fitted parameters. For three out of the four investigated ternary systems a too large miscibility gap is calculated with the models NRTL, UNIQUAC and ESD. In the system water+octane+aniline good results could be obtained for the prediction of the LLLE. In summary the equations of state deliver similar results. In the systems water+octane+CHA and octane+CHA+aniline also too large two phase regions were delivered. Better predictions could be obtained in the systems water+octane+aniline and water+CHA+aniline. The forecasts of the VLE in the ternary systems are good with the simultaneously fitted parameters. The deviations for the vapour phase compositions are as for the vapour pressures under 6 %. Larger deviations occur for the system water+octane+aniline only. As evaluation result for the thermodynamic models can be mentioned that the activity coefficient models NRTL and UNIQUAC deliver somewhat better results for the fitting of the binary data than the equations of state ESD and PC-SAFT however, with a larger number of adjustable parameters. The prediction of the VLE is satisfactorily in the ternary systems and with similar quality of all considered models. Larger deviations occur for the prediction of the LL(L)E in the ternary systems. The results of the ESD-EoS were, with one exception, each time better than those of the activity coefficient models. There is no significant difference between the prediction of the ternary systems for the ESD-EoS and the PC-SAFT.
163

RFID-Techniken und Datenschutzrecht - Perspektiven der Regulierung

Polenz, Sven 08 April 2008 (has links) (PDF)
Die Arbeit befasst sich mit der Frage, inwiefern das Bundesdatenschutzgesetz im nichtöffentlichen Bereich beim Einsatz von RFID-Technik ein angemessenes Schutzniveau bietet und in welcher Form Regulierungsmaßnahmen erforderlich sind. RFID bezeichnet ein Verfahren zur automatischen Identifizierung von Objekten mittels Funk. Dabei dienen kleine Transponder als Speicherbausteine für anonyme oder personenbezogene Daten. Diese Daten können mithilfe von Lesegeräten aus unterschiedlichen Distanzen erfasst und sichtbar gemacht werden. Im Anschluss erfolgt die Speicherung der ausgelesenen Informationen in einer zentralen Datenbank sowie die Verknüpfung mit anderen Daten. RFID-Technik bietet die Basis für zahlreiche sinnvolle Anwendungen in Industrie und Handel. So können Arbeitsabläufe optimiert und beschleunigt werden. Soweit ein Umgang mit personenbezogenen Daten erfolgt, sind jedoch datenschutzrechtliche Bestimmungen zu beachten. Für die verschiedenen Einsatzmöglichkeiten, wo personenbezogene Daten verarbeitet werden, kann zum gegenwärtigen Zeitpunkt überwiegend nur eine szenische Betrachtung zur Darstellung der datenschutzrechtlichen Herausforderungen dienen. Dabei sollen auch Überlegungen zur Technikfolgenabschätzung in einer Welt der allgegenwärtigen Datenverarbeitung in die Untersuchung einfließen. Anhand von Beispielen wird analysiert, inwieweit die Bestimmungen des Bundesdatenschutzgesetzes anwendbar sind und einen ausreichenden Rahmen für Maßnahmen zum Schutz des allgemeinen Persönlichkeitsrechtes von Betroffenen bieten. In diesem Sinne wird der Begriff der „Regulierung“ verwendet. Schutzmaßnahmen können in verschiedenen Formen zum Einsatz kommen, wobei insbesondere die Perspektiven einer Selbstkontrolle an Bedeutung gewinnen. Dabei werden bekannte Lösungsansätze aus dem Bereich der „regulierten Selbstregulierung“ für den Umgang mit RFID-Technik fruchtbar gemacht und umfassend diskutiert. Der Schwerpunkt liegt hier in der Prüfung technischer Schutzmaßnahmen. Weiterhin wird erörtert, ob die Schaffung von flankierenden gesetzlichen Regelungen erforderlich ist. Bei der Beurteilung der datenschutzrechtlichen Fragen werden europarechtliche und verfassungsrechtliche Aspekte in die Untersuchung einbezogen.
164

Alterung und Arbeitsmarkt

Schneider, Lutz 08 March 2011 (has links) (PDF)
Die vorliegende Untersuchung hat die Folgen der Alterung von Beschäftigten auf den Arbeitsmarkt zum Gegenstand. Namentlich werden die Produktivitäts- und Lohn-, die Innovations- sowie die Mobilitätseffekte des Alters auf empirischem Weg analysiert. Der räumliche Fokus liegt dabei auch dem deutschen Arbeitsmarkt; als Datenbasis fungieren Personen- und Betriebsdaten des Instituts für Arbeitsmarkt- und Berufsforschung Nürnberg (IAB). Mit Blick auf die Produktivitäts- und Lohnwirkung des Alters liefert die ökonometrische Analyse von Betrieben des Verarbeitenden Gewerbes Hinweise auf einen positiven Einfluss des Anteils der mittleren Jahrgänge auf die betriebliche Produktivität. Es bestätigt sich der umgekehrt u-förmige Verlauf des Alters-Produktivitätsprofils, der auch in anderen Ländern gefunden wurde. Die Analyse der Produktivitäts-Lohn-Relation im Altersverlauf erbringt ferner deutliche Belege für ein ungleiches Muster beider Profile. Insbesondere die Altersgruppe der 41-50-Jährigen scheint im Vergleich zur Referenzgruppe der über 50-Jährigen aber auch zur Gruppe der 15-30-Jährigen deutlich unter Produktivität entlohnt zu werden. Hinsichtlich des Einflusses der Altersstruktur auf das betriebliche Innovationsverhalten erbringt die mikroökonometrische Untersuchung ebenfalls Belege für einen umgekehrt u-förmigen Verlauf – die Gruppe der Beschäftigten im Alter von ca. 40 Jahren treibt demnach den betrieblichen Innovationsprozess am stärksten. Ein weiterer Befund der Analyse betrifft die Wirkung von Altersheterogenität. Der erwartet positive Innovationseinfluss einer altersgemischten Belegschaft konnte hier nicht belegt werden. Was die Mobilitätseffekte des Alters betrifft, so besagen die Ergebnisse der Arbeit, dass das ein höheres Alter von Erwerbstätigen die – betriebliche und berufliche – Job-Mobilität dämpft. Das geschätzte Mehrgleichungsmodell macht sichtbar, dass sich der Lohn Älterer durch einen Wechsel nur vergleichsweise wenig oder überhaupt nicht verbessern lässt, mithin für die meisten Älteren keine finanziellen Mobilitätsanreize gegeben sind. Die zweite Erkenntnis der Analyse besteht darin, dass das Alter auch nach Kontrolle dieses für Ältere fehlenden Lohnanreizes immer noch signifikant negativ auf die Wechselneigung wirkt. Neben dem Beitrag zur wirtschaftswissenschaftlichen Forschung haben die Untersuchungsergebnisse auch Bedeutung für betriebliches und staatliches Handeln. Allgemein gesprochen sind beide Ebenen aufgefordert, die Herausforderungen des demographischen Wandels für die Produktivitätsentwicklung zu bewältigen. Dies ist einerseits erforderlich, um die nötigen Ressourcen für eine Gesellschaft zu generieren, in der sich ein steigender Anteil im nicht-erwerbsfähigen Alter befindet. Andererseits ist dies unerlässlich, um den wachsenden Anteil der Älteren, die noch im erwerbsfähigen Alter sind, mit echten Beschäftigungschancen auszustatten und so Erwerbstätigkeit im Kontext einer alternden Gesellschaft zu unterstützen. / The present study analyses the labour market effect of workers’ ageing. Explicitly, the impact of age on productivity and wages, on innovation as well as on mobility is explored empirically. The econometric analyses are based on firm and employment data from the Institute for Employment Research (IAB) and, thus, refer to the labour market of Germany. Regarding the productivity and wage effects of age the econometric results confirm a positive correlation between firm productivity and the share of middle-aged employees (41-50 years old) within the manufacturing sector. Hence, the results provide evidence of an inverted u-shaped age-productivity profile in this sector also found for other countries. Furthermore, age-wage and age-productivity profiles seem to follow unequal patterns. Compared to the group of the 15-30 and the 51 and above years old workers the group of middle-aged employees earn less than a productivity based wage scheme would require. In terms of age effects on innovativeness the micro-econometric analysis again reveals an inverted u-shaped profile. Workers aged around 40 years seem to act as key driver for innovation activities within firms. An additional finding concerns the impact of age diversity on innovation. The expected positive effect of a heterogeneous age structure is not confirmed by the data. With respect to labour market mobility results are in favour of a negative correlation between age and job mobility either in terms of changing professions or firms. The estimation of a multi equation model verifies that expected wages of older workers do not or only marginally increase due to job mobility, so, financial incentives to change jobs are very low. Yet, even after controlling the absent wage incentive older employees still remain more immobile than younger workers. Altogether, these results should not only be of academic interest but also informative for actors on the firm and the governmental level. Both sides are asked to cope with the challenges of demographic change. Only by maintaining productivity and innovativeness until old ages the necessary resources can be generated to preserve an economy’s prosperity even if the share of non-active population is increasing by demographic developments. Secondly, enhancing productivity is essential to ensure employability of older persons and to sustain the size of workforce even in the circumstances of an ageing economy.
165

Event-driven mobile financial Information-Services : design of an intraday decision support System /

Muntermann, Jan. January 2007 (has links)
University, Diss.--Zugl.: Frankfurt am Main, 2007.
166

Analysis of high dimensional repeated measures designs: The one- and two-sample test statistics / Entwicklung von Verfahren zur Analyse von hochdimensionalen Daten mit Messwiederholungen

Ahmad, Muhammad Rauf 07 July 2008 (has links)
No description available.
167

Die statistische Auswertung von ordinalen Daten bei zwei Zeitpunkten und zwei Stichproben / The Statistical Analysis of Ordinal Data at two Timepoints and two Groups

Siemer, Alexander 03 April 2002 (has links)
No description available.
168

3-D modeling of shallow-water carbonate systems : a scale-dependent approach based on quantitative outcrop studies

Amour, Frédéric January 2013 (has links)
The study of outcrop modeling is located at the interface between two fields of expertise, Sedimentology and Computing Geoscience, which respectively investigates and simulates geological heterogeneity observed in the sedimentary record. During the last past years, modeling tools and techniques were constantly improved. In parallel, the study of Phanerozoic carbonate deposits emphasized the common occurrence of a random facies distribution along single depositional domain. Although both fields of expertise are intrinsically linked during outcrop simulation, their respective advances have not been combined in literature to enhance carbonate modeling studies. The present study re-examines the modeling strategy adapted to the simulation of shallow-water carbonate systems, based on a close relationship between field sedimentology and modeling capabilities. In the present study, the evaluation of three commonly used algorithms Truncated Gaussian Simulation (TGSim), Sequential Indicator Simulation (SISim), and Indicator Kriging (IK), were performed for the first time using visual and quantitative comparisons on an ideally suited carbonate outcrop. The results show that the heterogeneity of carbonate rocks cannot be fully simulated using one single algorithm. The operating mode of each algorithm involves capabilities as well as drawbacks that are not capable to match all field observations carried out across the modeling area. Two end members in the spectrum of carbonate depositional settings, a low-angle Jurassic ramp (High Atlas, Morocco) and a Triassic isolated platform (Dolomites, Italy), were investigated to obtain a complete overview of the geological heterogeneity in shallow-water carbonate systems. Field sedimentology and statistical analysis performed on the type, morphology, distribution, and association of carbonate bodies and combined with palaeodepositional reconstructions, emphasize similar results. At the basin scale (x 1 km), facies association, composed of facies recording similar depositional conditions, displays linear and ordered transitions between depositional domains. Contrarily, at the bedding scale (x 0.1 km), individual lithofacies type shows a mosaic-like distribution consisting of an arrangement of spatially independent lithofacies bodies along the depositional profile. The increase of spatial disorder from the basin to bedding scale results from the influence of autocyclic factors on the transport and deposition of carbonate sediments. Scale-dependent types of carbonate heterogeneity are linked with the evaluation of algorithms in order to establish a modeling strategy that considers both the sedimentary characteristics of the outcrop and the modeling capabilities. A surface-based modeling approach was used to model depositional sequences. Facies associations were populated using TGSim to preserve ordered trends between depositional domains. At the lithofacies scale, a fully stochastic approach with SISim was applied to simulate a mosaic-like lithofacies distribution. This new workflow is designed to improve the simulation of carbonate rocks, based on the modeling of each scale of heterogeneity individually. Contrarily to simulation methods applied in literature, the present study considers that the use of one single simulation technique is unlikely to correctly model the natural patterns and variability of carbonate rocks. The implementation of different techniques customized for each level of the stratigraphic hierarchy provides the essential computing flexibility to model carbonate systems. Closer feedback between advances carried out in the field of Sedimentology and Computing Geoscience should be promoted during future outcrop simulations for the enhancement of 3-D geological models. / Das Modellieren von geologischen Aufschlüssen liegt der Schnittstelle zwischen zwei geo-logischen Teildisziplinen, der Sedimentologie und der geologischen Modellierung. Hierbei werden geologische Heterogenitäten untersucht und simuliert, welche im Aufschluss beobachtet wurden. Während der letzten Jahre haben sich die Werkzeuge und die Technik der Modellierung stetig weiter-entwickelt. Parallel dazu hat die Untersuchung der phanerozoischen Karbonatablagerungen ihren Fokus auf gemeinsamen Vorkommen von zufälligen Faziesverteilungen in beiden Ablagerungs-gebieten. Obwohl beide Teildisziplinen durch die Aufschlussmodellierung eigentlich verbunden sind, wurden ihre jeweiligen Vorteile in der Literatur nicht miteinander verbunden, um so eine Verbesserung ähnlicher Studien zu erreichen. Die vorliegende Studie überprüft erneut die Modellierungsstrategie, angepasst an die Simulation von Flachwasser-Karbonat-Systemen und basierend auf einer engen Beziehung zwischen Sedimentologie und Modellierung. Die vorliegende Arbeit behandelt erstmals die Evaluierung der drei am häufigsten verwendeten Algorithmen „Truncated Gaussian Simulation (TGSim)“, „Sequential Indicator Simulation (SISim)“ und „Indicator Kriging (IK)“, um sie visuell und quantitativ mit dem entsprechenden Aufschluss zu vergleichen. Die Ergebnisse zeigen, dass die Heterogenität von Karbonatgesteinen nicht komplett mit nur einem Algorithmus simuliert werden kann. Die Eigenschaften jedes einzelnen Algorithmus beinhalten Vor- und Nachteile, sodass kein Algorithmus alle Beobachtungen aus dem Aufschluss widerspiegelt. Die zwei Endglieder im Spektrum der Ablagerungsbedingungen von Karbonaten, eine flachwinklige, jurassische Karbonat-Rampe (Hoher Atlas, Marokko) und eine isolierte, triassische Plattform (Dolomiten, Italien), wurden untersucht, um einen kompletten Überblick über die verschiedenen Heterogenitäten in Flachwasser-Karbonat- Systemen zu erhalten. Sedimentologische und statistische Analysen wurden für die verschiedenen Typen, Morphologien, Verteilungen und Assoziationen von Karbonatablagerungen durchgeführt und mit paläogeografischen Rekonstruktionen kombiniert und zeigen ähnliche Ergebnisse. Im Beckenmaßstab zeigen die Faziesassoziationen, bestehend aus Fazieszonen mit ähnlichen Ablagerungsbedingungen, einen linearen und kontinuierlichen Übergang zwischen den einzelnen Ablagerungsbereichen. Im Gegensatz dazu zeigt für einzelne Lithofaziestypen im Maßstab einzelner Schichten eine mosaikartige Verteilung, bestehend aus einer Anordnung räumlich unabhängiger Lithofazieszonen entlang des Ablagerungsprofils. Das Ansteigen der räumlichen Unordnung von der beckenweiten Ablagerung zur Ablagerung einzelner Schichten resultiert aus dem Einfluss autozyklischer Faktoren bei der Ablagerung von Karbonaten. Die Skalenabhängigkeit von Karbonat-Heterogenität ist mit der Auswertung der Algorithmen verknüpft um eine Modellierungsstrategie zu etablieren, welche sowohl die sedimentären Charakteristiken des Aufschlusses als auch die Modellierfähigkeit berücksichtigt. Für die Modellierung der Ablagerungssequenzen wurde ein flächenbasierter Ansatz verwendet. Die Faziesassoziationen wurden durch die Benutzung des TGSim-Algorithmus simuliert, um die regulären Trends zwischen den einzelnen Ablagerungsgebieten zu erhalten. Im Bereich der verschiedenen Lithofazien wurde mit dem SISim-Algorithmus, ein voll stochastischer Ansatz angewendet, um die mosaikartige Verteilung der Lithofazies-Typen zu simulieren. Dieser neue Arbeitsablauf wurde konzipiert, um die Simulierung von Karbonaten auf Basis der einzelnen Heterogenitäten in verschiedenen Größenordnungen zu verbessern. Im Gegensatz zu den in der Literatur angewendeten Simulationsmethoden berücksichtigt diese Studie, dass eine einzelne Modellierungstechnik die natürlichen Ablagerungsmuster und Variabilität von Karbonaten wahrscheinlich nicht korrekt abbildet. Die Einführung verschiedener Techniken, angepasst auf die verschiedenen Ebenen der stratigrafischen Hierarchie, liefert die notwendige Flexibilität um Karbonatsysteme korrekt zu modellieren. Eine enge Verknüpfung zwischen den Fortschritten auf dem Gebieten der Sedimentologie und dem Gebiet der modellierenden Geowissenschaften sollte weiterhin bestehen, um auch zukünftig bei der Simulation von geologischen Gelände-Aufschlüssen eine Verbesserung der 3-D-Modellierung zu erreichen.
169

Repairing event logs using stochastic process models

Rogge-Solti, Andreas, Mans, Ronny S., van der Aalst, Wil M. P., Weske, Mathias January 2013 (has links)
Companies strive to improve their business processes in order to remain competitive. Process mining aims to infer meaningful insights from process-related data and attracted the attention of practitioners, tool-vendors, and researchers in recent years. Traditionally, event logs are assumed to describe the as-is situation. But this is not necessarily the case in environments where logging may be compromised due to manual logging. For example, hospital staff may need to manually enter information regarding the patient’s treatment. As a result, events or timestamps may be missing or incorrect. In this paper, we make use of process knowledge captured in process models, and provide a method to repair missing events in the logs. This way, we facilitate analysis of incomplete logs. We realize the repair by combining stochastic Petri nets, alignments, and Bayesian networks. We evaluate the results using both synthetic data and real event data from a Dutch hospital. / Unternehmen optimieren ihre Geschäftsprozesse laufend um im kompetitiven Umfeld zu bestehen. Das Ziel von Process Mining ist es, bedeutende Erkenntnisse aus prozessrelevanten Daten zu extrahieren. In den letzten Jahren sorgte Process Mining bei Experten, Werkzeugherstellern und Forschern zunehmend für Aufsehen. Traditionell wird dabei angenommen, dass Ereignisprotokolle die tatsächliche Ist-Situation widerspiegeln. Dies ist jedoch nicht unbedingt der Fall, wenn prozessrelevante Ereignisse manuell erfasst werden. Ein Beispiel hierfür findet sich im Krankenhaus, in dem das Personal Behandlungen meist manuell dokumentiert. Vergessene oder fehlerhafte Einträge in Ereignisprotokollen sind in solchen Fällen nicht auszuschließen. In diesem technischen Bericht wird eine Methode vorgestellt, die das Wissen aus Prozessmodellen und historischen Daten nutzt um fehlende Einträge in Ereignisprotokollen zu reparieren. Somit wird die Analyse unvollständiger Ereignisprotokolle erleichtert. Die Reparatur erfolgt mit einer Kombination aus stochastischen Petri Netzen, Alignments und Bayes'schen Netzen. Die Ergebnisse werden mit synthetischen Daten und echten Daten eines holländischen Krankenhauses evaluiert.
170

Unscharfe Verfahren für lokale Phänomene in Zeitreihen / Fuzzy methods for local phenomena in time series

Herbst, Gernot 12 July 2011 (has links) (PDF)
Die vorliegende Arbeit befaßt sich mit instationären, uni- oder multivariaten Zeitreihen, die bei der Beobachtung komplexer nichtlinearer dynamischer Systeme entstehen und sich der Modellierung durch ein globales Modell entziehen. In vielen natürlichen oder gesellschaftlichen Prozessen kann man jedoch wiederkehrende Phänomene beobachten, die von deren Rhythmen beeinflußt sind; ebenso lassen sich in technischen Prozessen beispielsweise aufgrund einer bedarfsorientierten Steuerung wiederholte, aber nicht periodische Verhaltensweisen ausmachen. Für solche Systeme und Zeitreihen wird deshalb vorgeschlagen, eine partielle Modellierung durch mehrere lokale Modelle vorzunehmen, die wiederkehrende Phänomene in Form zeitlich begrenzter Muster beschreiben. Um den Unwägbarkeiten dieser und sich anschließender Aufgabenstellungen Rechnung zu tragen, werden in dieser Arbeit durchgehend unscharfe Ansätze zur Modellierung von Mustern und ihrer Weiterverarbeitung gewählt und ausgearbeitet. Die Aufgabenstellung der Erkennung von Mustern in fortlaufenden Zeitreihen wird dahingehend verallgemeinert, daß unvollständige, sich noch in Entwicklung befindliche Musterinstanzen erkannt werden können. Basierend auf ebendieser frühzeitigen Erkennung kann der Verlauf der Zeitreihe -- und damit das weitere Systemverhalten -- lokal prognostiziert werden. Auf Besonderheiten und Schwierigkeiten, die sich aus der neuartigen Aufgabe der Online-Erkennung von Mustern ergeben, wird jeweils vermittels geeigneter Beispiele eingegangen, ebenso die praktische Verwendbarkeit des musterbasierten Vorhersageprinzips anhand realer Daten dokumentiert. / This dissertation focuses on non-stationary multivariate time series stemming from the observation of complex nonlinear dynamical systems. While one global model for such systems and time series may not always be feasible, we may observe recurring phenomena (patterns) in some of these time series. These phenomena might, for example, be caused by the rhythms of natural or societal processes, or a demand-oriented control of technical processes. For such systems and time series a partial modelling by means of multiple local models is being proposed. To cope with the intrinsic uncertainties of this task, fuzzy methods and models are being used throughout this work. Means are introduced for modelling and recognition of patterns in multivariate time series. Based on a novel method for the early recognition of incomplete patterns in streaming time series, a short-time prediction becomes feasible. Peculiarities and intrinsic difficulties of an online recognition of incomplete patterns are being discussed with the help of suitable examples. The usability of the pattern-based prediction approach is being demonstrated by means of real-world data.

Page generated in 0.0415 seconds