• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 58
  • 29
  • Tagged with
  • 148
  • 124
  • 88
  • 73
  • 72
  • 72
  • 68
  • 65
  • 40
  • 27
  • 24
  • 24
  • 23
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Probabilistic Estimation of Unobserved Process Events

Rogge-Solti, Andreas January 2014 (has links)
Organizations try to gain competitive advantages, and to increase customer satisfaction. To ensure the quality and efficiency of their business processes, they perform business process management. An important part of process management that happens on the daily operational level is process controlling. A prerequisite of controlling is process monitoring, i.e., keeping track of the performed activities in running process instances. Only by process monitoring can business analysts detect delays and react to deviations from the expected or guaranteed performance of a process instance. To enable monitoring, process events need to be collected from the process environment. When a business process is orchestrated by a process execution engine, monitoring is available for all orchestrated process activities. Many business processes, however, do not lend themselves to automatic orchestration, e.g., because of required freedom of action. This situation is often encountered in hospitals, where most business processes are manually enacted. Hence, in practice it is often inefficient or infeasible to document and monitor every process activity. Additionally, manual process execution and documentation is prone to errors, e.g., documentation of activities can be forgotten. Thus, organizations face the challenge of process events that occur, but are not observed by the monitoring environment. These unobserved process events can serve as basis for operational process decisions, even without exact knowledge of when they happened or when they will happen. An exemplary decision is whether to invest more resources to manage timely completion of a case, anticipating that the process end event will occur too late. This thesis offers means to reason about unobserved process events in a probabilistic way. We address decisive questions of process managers (e.g., "when will the case be finished?", or "when did we perform the activity that we forgot to document?") in this thesis. As main contribution, we introduce an advanced probabilistic model to business process management that is based on a stochastic variant of Petri nets. We present a holistic approach to use the model effectively along the business process lifecycle. Therefore, we provide techniques to discover such models from historical observations, to predict the termination time of processes, and to ensure quality by missing data management. We propose mechanisms to optimize configuration for monitoring and prediction, i.e., to offer guidance in selecting important activities to monitor. An implementation is provided as a proof of concept. For evaluation, we compare the accuracy of the approach with that of state-of-the-art approaches using real process data of a hospital. Additionally, we show its more general applicability in other domains by applying the approach on process data from logistics and finance. / Unternehmen versuchen Wettbewerbsvorteile zu gewinnen und die Kundenzufriedenheit zu erhöhen. Um die Qualität und die Effizienz ihrer Prozesse zu gewährleisten, wenden Unternehmen Geschäftsprozessmanagement an. Hierbei spielt die Prozesskontrolle im täglichen Betrieb eine wichtige Rolle. Prozesskontrolle wird durch Prozessmonitoring ermöglicht, d.h. durch die Überwachung des Prozessfortschritts laufender Prozessinstanzen. So können Verzögerungen entdeckt und es kann entsprechend reagiert werden, um Prozesse wie erwartet und termingerecht beenden zu können. Um Prozessmonitoring zu ermöglichen, müssen prozessrelevante Ereignisse aus der Prozessumgebung gesammelt und ausgewertet werden. Sofern eine Prozessausführungsengine die Orchestrierung von Geschäftsprozessen übernimmt, kann jede Prozessaktivität überwacht werden. Aber viele Geschäftsprozesse eignen sich nicht für automatisierte Orchestrierung, da sie z.B. besonders viel Handlungsfreiheit erfordern. Dies ist in Krankenhäusern der Fall, in denen Geschäftsprozesse oft manuell durchgeführt werden. Daher ist es meist umständlich oder unmöglich, jeden Prozessfortschritt zu erfassen. Zudem ist händische Prozessausführung und -dokumentation fehleranfällig, so wird z.B. manchmal vergessen zu dokumentieren. Eine Herausforderung für Unternehmen ist, dass manche Prozessereignisse nicht im Prozessmonitoring erfasst werden. Solch unbeobachtete Prozessereignisse können jedoch als Entscheidungsgrundlage dienen, selbst wenn kein exaktes Wissen über den Zeitpunkt ihres Auftretens vorliegt. Zum Beispiel ist bei der Prozesskontrolle zu entscheiden, ob zusätzliche Ressourcen eingesetzt werden sollen, wenn eine Verspätung angenommen wird. Diese Arbeit stellt einen probabilistischen Ansatz für den Umgang mit unbeobachteten Prozessereignissen vor. Dabei werden entscheidende Fragen von Prozessmanagern beantwortet (z.B. "Wann werden wir den Fall beenden?", oder "Wann wurde die Aktivität ausgeführt, die nicht dokumentiert wurde?"). Der Hauptbeitrag der Arbeit ist die Einführung eines erweiterten probabilistischen Modells ins Geschäftsprozessmanagement, das auf stochastischen Petri Netzen basiert. Dabei wird ein ganzheitlicher Ansatz zur Unterstützung der einzelnen Phasen des Geschäftsprozesslebenszyklus verfolgt. Es werden Techniken zum Lernen des probabilistischen Modells, zum Vorhersagen des Zeitpunkts des Prozessendes, zum Qualitätsmanagement von Dokumentationen durch Erkennung fehlender Einträge, und zur Optimierung von Monitoringkonfigurationen bereitgestellt. Letztere dient zur Auswahl von relevanten Stellen im Prozess, die beobachtet werden sollten. Diese Techniken wurden in einer quelloffenen prototypischen Anwendung implementiert. Zur Evaluierung wird der Ansatz mit existierenden Alternativen an echten Prozessdaten eines Krankenhauses gemessen. Die generelle Anwendbarkeit in weiteren Domänen wird examplarisch an Prozessdaten aus der Logistik und dem Finanzwesen gezeigt.
42

Finite-Elemente-Mortaring nach einer Methode von J. A. Nitsche für elliptische Randwertaufgaben

Pönitz, Kornelia 29 June 2006 (has links)
Viele technische Prozesse führen auf Randwertprobleme mit partiellen Differentialgleichungen, die mit Finite-Elemente-Methoden näherungsweise gelöst werden können. Spezielle Varianten dieser Methoden sind Finite-Elemente-Mortar-Methoden. Sie erlauben das Arbeiten mit an Teilgebietsschnitträndern nichtzusammenpassenden Netzen, was für Probleme mit komplizierten Geometrien, Randschichten, springenden Koeffizienten sowie für zeitabhängige Probleme von Vorteil sein kann. Ebenso können unterschiedliche Diskretisierungsmethoden in den einzelnen Teilgebieten miteinander gekoppelt werden. In dieser Arbeit wird das Finite-Elemente-Mortaring nach einer Methode von Nitsche für elliptische Randwertprobleme auf zweidimensionalen polygonalen Gebieten untersucht. Von besonderem Interesse sind dabei nichtreguläre Lösungen (u \in H^{1+\delta}(\Omega), \delta>0) mit Eckensingularitäten für die Poissongleichung sowie die Lamé-Gleichung mit gemischten Randbedingungen. Weiterhin werden singulär gestörte Reaktions-Diffusions-Probleme betrachtet, deren Lösungen zusätzlich zu Eckensingularitäten noch anisotropes Verhalten in Randschichten aufweisen. Für jede dieser drei Problemklassen wird das Nitsche-Mortaring dargelegt. Es werden einige Eigenschaften der Mortar-Diskretisierung angegeben und a-priori-Fehlerabschätzungen in einer H^1-artigen sowie der L_2-Norm durchgeführt. Auf lokal verfeinerten Dreiecksnetzen können auch für Lösungen mit Eckensingularitäten optimale Konvergenzordnungen nach gewiesen werden. Bei den Lösungen mit anisotropen Verhalten werden zusätzlich anisotrope Dreiecksnetze verwendet. Es werden auch hier Konvergenzordnungen wie bei klassischen Finite-Elemente-Methoden ohne Mortaring erreicht. Numerische Experimente illustrieren die Methode und die Aussagen zur Konvergenz.
43

Tau-Equivalences and Refinement for Petri Nets Based Design

Tarasyuk, Igor V. 27 November 2012 (has links)
The paper is devoted to the investigation of behavioral equivalences of concurrent systems modeled by Petri nets with silent transitions. Basic τ-equivalences and back-forth τ-bisimulation equivalences known from the literature are supplemented by new ones, giving rise to complete set of equivalence notions in interleaving / true concurrency and linear / branching time semantcis. Their interrelations are examined for the general class of nets as well as for their subclasses of nets without siltent transitions and sequential nets (nets without concurrent transitions). In addition, the preservation of all the equivalence notions by refinements (allowing one to consider the systems to be modeled on a lower abstraction levels) is investigated.
44

Online flood forecasting in fast responding catchments on the basis of a synthesis of artificial neural networks and process models / Online Hochwasservorhersage in schnellreagierenden Einzugsgebieten auf Basis einer Synthese aus Neuronalen Netzen und Prozessmodellen

Cullmann, Johannes 03 April 2007 (has links) (PDF)
A detailed and comprehensive description of the state of the art in the field of flood forecasting opens this work. Advantages and shortcomings of currently available methods are identified and discussed. Amongst others, one important aspect considers the most exigent weak point of today’s forecasting systems: The representation of all the fundamentally different event specific patterns of flood formation with one single set of model parameters. The study exemplarily proposes an alternative for overcoming this restriction by taking into account the different process characteristics of flood events via a dynamic parameterisation strategy. Other fundamental shortcomings in current approaches especially restrict the potential for real time flash flood forecasting, namely the considerable computational requirements together with the rather cumbersome operation of reliable physically based hydrologic models. The new PAI-OFF methodology (Process Modelling and Artificial Intelligence for Online Flood Forecasting) considers these problems and offers a way out of the general dilemma. It combines the reliability and predictive power of physically based, hydrologic models with the operational advantages of artificial intelligence. These operational advantages feature extremely low computation times, absolute robustness and straightforward operation. Such qualities easily allow for predicting flash floods in small catchments taking into account precipitation forecasts, whilst extremely basic computational requirements open the way for online Monte Carlo analysis of the forecast uncertainty. The study encompasses a detailed analysis of hydrological modeling and a problem specific artificial intelligence approach in the form of artificial neural networks, which build the PAI-OFF methodology. Herein, the synthesis of process modelling and artificial neural networks is achieved by a special training procedure. It optimizes the network according to the patterns of possible catchment reaction to rainstorms. This information is provided by means of a physically based catchment model, thus freeing the artificial neural network from its constriction to the range of observed data – the classical reason for unsatisfactory predictive power of netbased approaches. Instead, the PAI-OFF-net learns to portray the dominant process controls of flood formation in the considered catchment, allowing for a reliable predictive performance. The work ends with an exemplary forecasting of the 2002 flood in a 1700 km² East German watershed.
45

Contributions to Spectrophotometric Characterisation of Thin Films Showing Considerable Optical Losses

Petrich, Ralf 18 June 1998 (has links) (PDF)
Verschiedene Typen von Dnnschichtsystemen, die aufgrund der starken Wirkung optischer Verlustmechanismen wie Absorption oder diffuser Streuung nur schwer der optischen Analyse mittels Spektralphotometrie zugnglich sind, werden in dieser Arbeit mittels einer einheitlichen Methode spektralphotometrisch analysiert. Dabei werden Schichtparameter wie der Spektralverlauf von Brechzahl und Absorptionskoeffizient, die Schichtdicke und ggf. weitere geometrische Schichtparameter wie der RMS-Wert der Oberflchenrauhigkeit aus Messungen des gerichteten Transmissions- und Reflexionsvermgens der Schichtsysteme ber den zu untersuchenden Wellenzahlbereich (NIR/VIS/UV) bestimmt. Zu den untersuchten Schichtsystemen gehren polykristalline Diamantschichten auf Silizium, die starke Streuverluste an der rauhen Diamantoberflche aufweisen, sowie organische Mehrschichtsysteme auf Glsern, die durch hohe Absorptionskoeffizienten sowie komplizierte Absorptionsverlufe gekennzeichnet sind. Als Hilfsmittel zur Bestimmung der Schichtparameter werden neuartige Modelle fr die Wirkung von rauhen Oberflchen auf Dnnschichtspektren, weiterentwickelte Gradientenmethoden zur spektralen Rckrechnung sowie vllig neuartige knstlich intelligente Systeme auf der Basis neuronaler Netze eingesetzt. Anhand unabhngiger Messungen an den Schichtsystemen wie Massendichtemessungen, SEM- Profilometrie, Ramanspektroskopie knnen die gefundenen Schichtparameter besttigt werden.
46

Profillinie 4: Kundenorientierte Gestaltung von vernetzten Wertschöpfungsketten

Zanger, Cornelia, Müller, Egon, Meyer, Matthias, Bocklisch, Steffen, Fischer, Marco, Jähn, Hendrik, Käschel, Joachim, Roth, Steffen, Benn, Wolfgang, Jurczek, Peter, Schöne, Roland, Freitag, Matthias 11 November 2005 (has links) (PDF)
Wertschöpfungsstrukturen in der Gesellschaft passen sich vor dem Hintergrund globaler Herausforderungen sehr flexibel und dynamisch an ständig neue Anforderungen an. Innovative Wertschöpfung kann dabei immer weniger von einzelnen Akteuren in Wissenschaft, Technik, Wirtschaft und Gesellschaft geleistet werden, sondern verschiedene interdisziplinäre Kompetenzen müssen gebündelt werden, die zielorientierte Vernetzung von Wissen und Ressourcen muss gestaltet werden. Unbestechlicher Maßstab für den Erfolg jeglicher wirtschaftlicher Unternehmung und damit auch von vernetzten Wertschöpfungsketten ist der Kunde mit seinen individuellen Bedürfnissen, das heißt letztlich die Akzeptanz und Absatzchancen von Produkten und Dienstleistungen am Markt.
47

Zum Problem der Netzschrumpfung in der Hernienchirurgie / Problem of mesh-shrinkage in hernia-surgery

Forster, Henrik 08 February 2011 (has links)
No description available.
48

Applications of Bayesian networks in natural hazard assessments

Vogel, Kristin January 2013 (has links)
Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. / Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse.
49

Die potentielle neuroprotektive Funktion Perineuronaler Netze gegenüber Tau-Protein-Hyperphosphorylierungen und neurofibrillären Tangles in einem Mausmodell der Frontotemporalen Demenz (P301L)

Schmutzler, Sandra 12 May 2014 (has links) (PDF)
Perineuronale Netze (PN) sind eine spezialisierte Form der neuronalen extrazellulären Matrix. Es wird vermutet, dass sie neuroprotektive Eigenschaften besitzen und die von ihnen umschlossenen Neurone gegenüber Degeneration schützen. Mehrere Studien untersuchten bereits die PN in Zusammenhang mit der Pathologie der Alzheimer-Erkrankung. Für die Frontotemporalen Demenzen, die nach der Alzheimer-Erkrankung und der vaskulären Demenz zu den häufigsten dementiellen Erkrankungen gehören, ist die Beziehung von PN und Tau-Protein (TP)-Pathologie noch nicht untersucht worden. Die Dissertation beschäftigt sich mit der Korrelation von netztragenden Neuronen mit TP-Pathologie in einem Mausmodel der Frontotemporalen Demenz mit Parkinsonismus des Chromosoms 17 (FTDP-17). Sie geht der Frage nach, ob netztragende Neuronen vor Degeneration und intrazellulären Ablagerungen von verändertem TP, in Form von Hyperphosphorylierungen (HP) und Neurofibrillären Tangles (NFT), geschützt sind. Mit Hilfe immunhistochemischer Fluoreszenzmarkierung und Western Blot wurden die Gehirne transgener Mäuse mit der P301L-Mutation des TP im Alter von drei und achteinhalb Monaten untersucht. Dabei wurden sechs Hirnregionen ausgewählt: Primärer Somatosensorischer Kortex (PSC), Entorhinaler Kortex (EC), Hippokampus (Hipp), Pars magnocellularis des Nucleus ruber (NR-m), Pars reticulata der Substantia nigra (SN-r) und Motorischer Trigeminuskern (Mo5). Die Untersuchungen zeigen, dass die PN bei der FTDP-17 die Neurone nicht explizit vor TP-Pathologie schützen. Jedoch kommt es zu keiner signifikanten Reduktion der netztragenden Zellen im Altersgang, sodass eine neuroprotektive Funktion der PN weiterhin vermutet werden kann.
50

On Teaching Quality Improvement of a Mathematical Topic Using Artificial Neural Networks Modeling (With a Case Study)

Mustafa, Hassan M., Al-Hamadi, Ayoub 07 May 2012 (has links) (PDF)
This paper inspired by simulation by Artificial Neural Networks (ANNs) applied recently for evaluation of phonics methodology to teach children "how to read". A novel approach for teaching a mathematical topic using a computer aided learning (CAL) package applied at educational field (a children classroom). Interesting practical results obtained after field application of suggested CAL package with and without associated teacher's voice. Presented study highly recommends application of a novel teaching trend based on behaviorism and individuals' learning styles. That is to improve quality of children mathematical learning performance.

Page generated in 0.033 seconds