Spelling suggestions: "subject:"validierung"" "subject:"invalidierung""
61 |
Entwicklungsbedingungen impliziter MotiveScheffer, David 25 September 2001 (has links)
Die folgende Arbeit beschreibt ein entwicklungs- und persönlichkeitspsychologisches fundiertes Verfahren zur Messung von impliziten (unbewussten) Motiven. Es wird theoretisch postuliert und empirisch nachgewiesen, dass die impliziten Motive Bindung, Leistung und Macht in frühen, deprivierenden bzw. herausfordernden familiären Strukturen begründet liegen. Diese frühkindlichen Herausforderungen werden durch interindividuell variierende Regulationsstile gemeistert und so zu einem Motiv ausgestaltet. Der aus den theoretischen Vorannahmen entwickelte Motiv-Inhaltsschlüssel kann als Persönlichkeitstests verwendet werden (der Operante Motiv-Test OMT ), welcher eine hohe Validität bspw. in der Personalauswahl und entwicklung für sich in Anspruch nehmen kann.
|
62 |
Optimierung und Validierung eines SARS-CoV-2-N IgG Antikörper ELISASchnurra, Carolin 04 January 2024 (has links)
Die neuartige Infektionskrankheit Covid-19 breitet sich seit Dezember 2019 von Wuhan, China, in zahlreiche Länder aller Kontinente aus. Durch die rasche Verbreitung der Viruserkrankung und die schnell steigende Zahl an infizierten Personen, rief die WHO im Januar 2020 die „Gesundheitliche Notlage internationaler Tragweite“ aus. Im März desselben Jahres wurde die Situation als Pandemie deklariert. Die Infektionskrankheit wird durch das SARS-CoV-2 hervorgerufen, ein Vertreter aus der Gattung der Betacoronaviren, dessen Genom durch einzelsträngige RNA positiver Polarität (ssRNA) gekennzeichnet ist. Ein zoonotischer Ursprung des Virus aus Fledermäusen wird derzeit aufgrund hoher genetischer Übereinstimmungen als wahrscheinlichste initiale Quelle betrachtet. Die Transmission des SARS-CoV-2 erfolgt über die respiratorische Aufnahme von virushaltigem Aerosol und ruft Symptome wie Husten, Fieber, Geschmacks- und Geruchsstörungen sowie bei schwerem Verlauf auch Pneumonien mit beatmungspflichtigem ARDS (Acute Respiratory Distress Syndrome) hervor. Eine spezifische Therapie für Covid-19 ist bisher nicht etabliert, jedoch sind supportive Maßnahmen sinnvoll, der Einsatz von Remdesivir von der Europäischen Arzneimittel-Agentur zugelassen und die Verwendung von systemischen Kortikosteroiden von der WHO empfohlen. Um die Basisreproduktionszahl für das SARS-CoV-2 gering zu halten, sind infektionspräventive Maßnahmen wie Mund-Nase-Bedeckung, Mindestabstand, regelmäßiger Luftaustausch und das strenge Einhalten von Hygieneregeln wirksam. Die ersten Impfstoffe für die Viruserkrankung Covid-19 stehen seit Dezember 2020 bereit. Da die Vakzine bislang begrenzt zur Verfügung stehen, ist eine frühzeitige Diagnostik und die Nachverfolgung des Infektionsgeschehens weiterhin von großer Bedeutung. Der direkte Erregernachweis des SARS-CoV-2 erfolgt durch einen Nasen-Rachen-Abstrich, der mittels RT-PCR auf replizierendes Virusgenom untersucht wird. Für die Erfassung der asymptomatisch bzw. subklinisch infizierten Personen sind neben dem Antigen-Schnelltest auch serologische Nachweisverfahren notwendig, um die reale Ausbreitung des SARS-CoV-2 nachvollziehen zu können. Ziel dieser Arbeit war es, durch zahlreiche Optimierungen ein valides Protokoll für einen SARS-CoV-2-N IgG Antikörper ELISA zu etablieren. Der Test sollte einen qualitativen Nachweis zur Detektion der SARS-CoV-2-Immunantwort gegen das Nukleokapsidprotein des Virus möglich machen.
Die in das Protokoll aufgenommenen Optimierungen umfassen u. a. die Konzentration des verwendeten Antigens N-MBP, die Zusammensetzung der Beschichtungs- und Blocklösung, die Probenvolumina, die Verdünnung des Sekundärantikörpers und die Zeit der Substratinkubation für die Farbentwicklung. Für das Protokoll des SARS-CoV-2-N IgG Antikörper ELISA wurde ein Kalibrator entwickelt, um einen normierten Grenzwert für Seropositivität festlegen zu können und ein Antikörper-Konzentrationsstandard etabliert, um die Ergebnisse des Immunassays auch quantitativ interpretieren zu können. Zur Validierung des SARS-CoV-2-N IgG Antikörper ELISA wurden 73 Covid-19-Seren von Probanden mit zuvor positivem RT-PCR Testergebnis und 180 Negativkontrollseren bzw. -plasmen verwendet. Die Covid-19-Patienten zeigten eine milde bis moderate Erkrankung oder einen asymptomatischen Infektionsverlauf. Die Covid-19-Seren wurden 2 - 3 Wochen (n = 25) oder über 4 Wochen (n = 48) nach Symptombeginn bzw. positivem RNA-Test gewonnen. Die Spezifität des SARS-CoV-2-N IgG Antikörpertests betrug 99,44 % und die Sensitivität wurde mit 80,82 % ermittelt. Nach 2 - 3 Wochen entnommene Covid-19-Seren wurden dabei mit einer Sensitivität von 80,0 % und mehr als 4 Wochen nach Diagnosestellung gewonnene Seren mit einer Positivrate von 81,3 % erkannt. Weiterhin wurde die Empfindlichkeit des In-house ELISA in einer prospektiven diagnostischen Studie mit der Sensitivität von sieben kommerziellen Nukleokapsid- oder S-Glykoprotein-basierten Antikörpertests verglichen, um den Nutzen der Tests für den klinischen Einsatz bewerten zu können. Die Sensitivitäten der Antikörperassays lagen bei 64,4 - 93,2 %. Die empfindlichsten Tests erkannten 95,8 - 100 % der über 4 Wochen nach Symptombeginn gewonnenen Covid-19-Seren als positiv. Seren, die 2 - 3 Wochen nach positivem RNA-Test entnommen wurden, wurden mit einer geringeren Sensitivität erkannt, was darauf hindeutet, dass der optimale Zeitpunkt für serologische Testungen später als 3 Wochen nach Ausbruch der Infektionskrankheit liegen sollte. Antikörpertests, die das Nukleokapsid- bzw. das S-Glykoprotein als Antigen verwendeten, zeigten vergleichbare Sensitivitätswerte auf. Dies bedeutet, dass sowohl N- als auch S-basierte Antiköpertests für die serologische Diagnostik geeignet sind. Nukleokapsidprotein und S-Glykoprotein-basierte Antikörperassays zeigten außerdem Unterschiede in der Detektion einer positiven oder negativen Immunreaktion bei den untersuchten Covid-19-Seren. Eine kombinierte Auswertung von seriellen Tests unter separater Verwendung beider Antigene könnte somit die Positivrate bei der Untersuchung von Covid-19-Seren steigern.:INHALTSVERZEICHNIS
ABKÜRZUNGSVERZEICHNIS III
1 EINFÜHRUNG 1
1.1 SARS-CoV-2: Virale Struktur und Replikation 1
1.2 Covid-19: Pathogenese und Krankheitsbild 3
1.3 Epidemiologie und Herkunft 6
1.4 Diagnostik 8
1.5 Therapie 11
1.6 Prävention 12
1.7 Impfung 12
2 AUFGABENSTELLUNG 15
3 MATERIALIEN UND METHODEN 16
3.1 Materialien 16
3.1.1 Geräte 16
3.1.2 Chemikalien 16
3.1.3 Proteine 17
3.1.4 Seren 17
3.1.5 Immunoreagenzien 18
3.1.6 Sonstige Materialien 18
3.2 Methoden 18
3.2.1 Allgemein verwendete Lösungen 18
3.2.2 Ethikantrag 19
3.2.3 Probanden 19
3.2.4 Probenentnahme 20
3.2.5 Probenaufarbeitung 20
3.2.6 Nukleokapsidprotein (N) und Maltose-bindendes Protein (MBP) 20
3.2.7 Enzyme-Linked Immunosorbent Assay (ELISA) 22
3.2.8 Kommerzielle Antikörpertests 23
3.2.9 Auswertung und Statistik 24
4 ERGEBNISSE 28
4.1 Optimierung des SARS-CoV-2-N IgG Antikörper ELISA 28
4.1.1 Beschichtung mit Nukleokapsid-Fusionsprotein 28
4.1.2 Einfluss der Antigenkonzentration in der Beschichtungslösung 29
4.1.3 Einfluss der Auftauhäufigkeit des N-MBP-Antigens 31
4.1.4 Variation der Beschichtungslösung 33
4.1.5 Beschichtungs- und Probenvolumina 34
4.1.6 Blocklösung 35
4.1.7 Substratinkubationszeit 36
4.1.8 Sekundärantikörperverdünnung 38
4.1.9 Stabilisierung des Protokolls mit CANDOR®-Reagenzien 40
4.2 Validierung des SARS-CoV-2-N IgG Antikörper ELISA 42
4.2.1 Herstellung eines Kalibrators 42
4.2.2 Bestimmung der Sensitivität 44
4.2.3 Bestimmung der Spezifität 46
4.2.4 Herstellung eines Antikörper-Konzentrationsstandards 47
4.2.5 Intra-Assay und Inter-Assay-Variabilität 49
4.3 Protokoll des SARS-CoV-2-N IgG Antikörper ELISA 50
4.4 Vergleich der diagnostischen Sensitivität von SARS-CoV-2-Nukleoprotein- und Glykoprotein-basierten Antikörpertests 53
5 DISKUSSION 58
5.1 Ergebnisse der diagnostischen Validierungsstudie 58
5.2 Eignung und Verwendung des Nukleokapsidproteins als Antigen für den SARS-CoV-2 IgG Antikörper ELISA 61
5.3 Validität und Limitationen 62
5.4 Ausblick und Bedeutung des SARS-CoV-2-N IgG Antikörpertests 64
6 ZUSAMMENFASSUNG 67
LITERATURVERZEICHNIS 70
ANLAGEN 89
ERKLÄRUNG ÜBER DIE EIGENSTÄNDIGE ABFASSUNG DER ARBEIT 92
LEBENSLAUF 93
PUBLIKATIONSVERZEICHNIS 95
DANKSAGUNG 96
|
63 |
Verortung von Produktprofilen im zukünftigen Umfeld durch Abgleich von SzenarienThümmel, Carsten, Kiss, Domonkos, Schwarz, Stefan, Siebe, Andreas, Albers, Albert 09 October 2024 (has links)
Für die Entwicklung zukünftiger Produkte müssen die Bedürfnisse von Kunden im künftigen Umfeld antizipiert werden. Anhand von Szenarien können relevante Eigenschaften für zukünftige Produkte abgeleitet und in Produktprofile überführt werden. Eine Veränderung der Zukunft gegenüber der erwarteten Zukunft und der daran angelehnten strategischen Ausrichtung, die zu Beginn getroffen wurde, bedingt die Notwendigkeit von Änderungen an den Produkten und der Anpassung der Planungen. Eine entsprechende Methodik zum kontinuierlichen Abgleich von geplanten Produkteigenschaften und -profilen gegenüber der Zukunftsentwicklung besteht bislang nicht. In einem ersten Schritt soll daher in der vorliegenden Arbeit ein Konzept für ein Beschreibungsmodell zur Verortung von Produktprofilen im zukünftigen Umfeld entwickelt werden. Dabei werden morphologiebasiert erstellte Szenarien auf Basis von Schlüsselfaktoren und Projektionen in die Zukunft zugrunde gelegt. Für das Produktprofil wird ein äquivalentes Szenario erstellt und die Übereinstimmung mit den vorliegenden Szenarien überprüft. Experten bewerten und wählen hierzu die am besten übereinstimmende Projektion je Schlüsselfaktor im aus. Die Verortung und Bewertung von Produktprofilen im Zukunftsraum ermöglicht die frühzeitige Erkennung von Abweichungen gegenüber der strategischen Ausrichtung, was Anpassungen am Produktprofil oder der strategischen Ausrichtung rechtfertigen kann. Im Rahmen eines studentischen Entwicklungsprojekts wurde das Konzept erfolgreich angewendet. Anschließende Forschungsvorhaben befassen sich mit der Weiterentwicklung des vorgestellten Beschreibungsmodells.
|
64 |
Erweiterung eines Ontologie-basierten Produktkonfigurationsmodells mit generalisierter Microservice Architektur für die Entwicklung in einem ProduktionsdatenraumKonietzko, Erik 09 October 2024 (has links)
In diesem Paper wird die Weiterentwicklung eines auf einer Ontologie basierten Demonstrators für die Konfiguration des Produktmodells einer Brennstoffzelle diskutiert.
Der Demonstrator ist Teil eines aufzubauenden resilienten Produktionsdatenraums, der Abhängigkeiten zwischen Produktentwicklungs- und Produktionsdomänen abbildet und auf Änderungen in diesen Domänen funktional reagiert. Das Produktmodell des Produktkonfigurators wurde als Ontologie vorbereitet und eine Informations- und Servicearchitektur um ihn herum entwickelt, um das konfigurierte Produkt als Datenraum-Asset vorzubereiten. Der Fokus der Untersuchung liegt auf der Erweiterung der Ontologien des Produktmodells durch Integration von Servicebeschreibungen in einer Meta-Ontologie. Die entwickelten Ontologie-Modelle dienen zur Validierung der Konsistenz instanziierter Assets und der generalisierten Definition von Services zur Interaktion mit der Konfiguration. Der vorgestellte Anwendungsfall dient der Untersuchung, ob und wie eine Meta-Modellierung geeignet ist, Beschreibungen von Assets in einen generischen Kontext zu bringen, um Datenkonsistenz sowie funktionale Abhängigkeiten zu prüfen und sicherzustellen. Es wird gezeigt, wie Ontologie-Modelle für die Integration von Assets verwendet werden können, um sie mit auf sie angewendeten Services zu verknüpfen. Die Untersuchung führte zur Identifikation benötigter Basisdienste für eine solche Integration und zu weiteren Schritten für die Aufbereitung des Demonstrators als Produktzwilling für die Verwendung in auf semantischen Technologien fußenden Datenräumen.
|
65 |
Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkaptursäuren als Indikatoren für die Bildung toxischer Intermediate / Identification of biomarkers via LC-MS-based metabonomics – mercapturic acids as indicators for the formation of toxic intermediatesWagner, Silvia January 2008 (has links) (PDF)
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden. / Metabonomics forms the end of the omics-cascade and represents a top-down strategy for the interpretation of the metabolome, i. e. all the low molecular weight metabolites in an intact organism. The aim of the approach is to analyse characteristic metabolite profiles by suitable untargeted screening methods in biological samples like urine or blood that can be obtained in a non-invasive manner. In the context of metabonomics, the term “metabotype” was defined according to the geno- and phenotype, respectively. Biostatistical methods based on pattern recognition techniques allow comparing metabolic signatures and extracting group specific metabolites and biomarkers. Therefore, metabonomics can be regarded as the fusion of bioanalytical and biostatistical techniques. Since its introduction in 1999, the concept of metabonomics has permanently gained importance in many fields of scientific research. One aim was to transfer the methodology, which was originally established to predict toxic effects in drug development processes, to human issues. Apart from preclinical questions, metabonomics is increasingly applied in the area of personalised medicine and nutrition. As the NMR technique used by pioneers of the field was too insensitive and the resulting metabolite profiles were too susceptible to biological and analytical confounders, more sensitive techniques like mass spectrometry were more and more applied. Especially mass spectrometry in combination with high performance liquid chromatography showed great promise for the screening of metabolites. However, after a very short time, it was clear that the data sets resulting from full scan/TOF-methods were too complex to “separate the wheat from the chaff” with chemometric procedures. Metabolite databases are still under construction, and therefore marker identification is challenging and requires complex analytical techniques. Thus, one strategy is to concentrate on a certain metabolite subset. The focus on a metabolite class with a close relation to the mechanism under investigation can considerably increase the prospects of success in the biomarker identification process. Due to a variety of exogenous and endogenous factors (drugs, industrial chemicals, food ingredients, and tobacco smoke) the human organism is steadily confronted with a multitude of electrophilic compounds. Oxidative damage of the DNA, proteins, and lipids is associated with the development of diseases like Parkinson’s, Alzheimer’s, cancer and widespread diseases like arteriosclerosis, allergies and coronary heart diseases. With the glutathione system the human organism is equipped with an efficient detoxification mechanism. The tripeptide glutathione reacts as nucleophile with exogenously and endogenously formed electrophilic intermediates. End products are mercapturic acids (N-acetyl-L-cysteine-adducts) and respective sulfoxides that are predominantly excreted with urine. Therefore, there is a close relationship between these mercapturic acid patterns and the electrophilic burden of an organism. In this context, the aim of this thesis was to develop a non-invasive human metabonomics approach that focuses the metabolite screening on the effect, dose and susceptibility marker class of the mercapturic acids. Thus, the prospects of success regarding the identification of potential biomarkers for various toxicological and pathological endpoints should be increased.
|
66 |
Entwicklung eines neuartigen rechnergestützten Validierungsverfahrens für telegrammbasierte Zugsicherungssysteme am Beispiel von ETCSWenzel, Benedikt 27 September 2013 (has links) (PDF)
Mit der Einführung des europäischen Zugsicherungssystems ETCS sind durch die umfassenden Telegrammdaten, die zwischen Zug und Strecke ausgetauscht werden, neue Herausforderungen bei der Planung, Projektierung, aber auch Prüfung und Validierung verbunden. Im Rahmen der Dissertation wird ein neuartiges Verfahren zur Validierung sicherheitskritischer Anteile von ETCS-Nachrichten entwickelt. Der Ansatz beruht auf der topologischen Aufbereitung der Nachrichteninhalte in einem vierstufigen Prozess. Das Ergebnis der Aufbereitung erlaubt sowohl den automatisierten Abgleich gegen Referenzdaten als auch eine visuelle Prüfung gegen Topologiepläne. Das Optimierungspotential des Ansatzes bei der Validierung wird im Rahmen einer Erprobung anhand realer Projektdaten bestätigt. Mit der topologischen Aufbereitung werden die komplexen Nachrichteninhalte in eine für den Prüfer erfassbare und zu den Referenzdaten vergleichbare Form überführt. Redundante Nachrichteninhalte werden im Zuge der Aufbereitung erkannt und zusammengefasst, was gleichermaßen zur Minimierung des Prüfaufwands sowie zur Erhöhung des Abdeckungsgrades beiträgt.
|
67 |
Lastgetriebene Validierung Dienstbereitstellender Systeme / Load-Driven Validation of Service Providing SystemsCaspar, Mirko 07 January 2014 (has links) (PDF)
Mit steigender Komplexität heterogener, verteilter Systeme nehmen auch die Anforderungen an deren Validierung zu.
In dieser Arbeit wird ein Konzept vorgestellt, mit dem eine bestimmte Klasse komplexer Systeme, so genannte Dienstbereitstellende Systeme, durch automatisiertes Testen validiert werden kann. Mit Hilfe heterogener Klienten, bspw. eingebetteter Systeme, wird die Systemfunktionalität getestet. Hierzu wird das zu testende System auf die nach außen zur Verfügung gestellten Dienste reduziert und die Nutzung dieser Dienste durch Klienten mit einer Last quantifiziert. Eine Validierung wird durch die Vorgabe zeitlich veränderlicher Lasten für jeden Dienst definiert. Diese Lasten werden zielgerichtet den verfügbaren Klienten zugeteilt und durch diese im zu testenden System erzeugt.
Zur praktikablen Anwendung dieses Konzeptes ist eine Automatisierung des Validierungsprozesses notwendig. In der Arbeit wird die Architektur einer Testbench vorgestellt, die zum einen die Heterogenität der Klienten berücksichtigt und zum anderen Einflüsse durch die Dynamik der Klienten während der Laufzeit der Validierung ausgleicht. Das hierbei zu lösende algorithmische Problem der Dynamischen Testpartitionierung wird ebenso definiert, wie ein Modell zur Beschreibung aller notwendigen Parameter. Die Testpartitionierung kann mittels einer eigens entwickelten Heuristik in Polynomialzeit gelöst werden.
Zur Bestimmung der Leistungsfähigkeit des entwickelten Verfahrens wird die Heuristik aufwendigen Untersuchungen unterzogen. Am Beispiel eines zu testenden Mobilfunknetzwerkes wird die beschriebene Testbench umgesetzt und Kernparameter mittels Simulation ermittelt.
Das Ergebnis dieser Arbeit ist ein Konzept zur Systemvalidierung, das generisch auf jede Art von dienstbereitstellenden Systemen angewandt werden kann und damit zur Verbesserung des Entwicklungsprozesses von komplexen verteilten Systemen beiträgt.
|
68 |
Selbstkonzepte von Schülern der Klassenstufen 3 bis 6: Messung und Validierung der multidimensionalen Struktur / Measurement and Validation of the Multidimensional Self-concept Structure of German Students attending Grades 3 to 6Arens, Anne Katrin 08 July 2011 (has links)
No description available.
|
69 |
Entwicklung und Validierung eines stochastischen Simulationsmodells für die Prognose von UnternehmensinsolvenzenBemmann, Martin 25 May 2007 (has links)
Die zentralen Fragestellungen der Arbeit sind, wie die Insolvenzwahrscheinlichkeiten von Unternehmen prognostiziert und wie sie durch zielgerichtetes Handeln beeinflusst werden können. Hierzu gibt der Autor zunächst einen ausführlichen Überblick über die derzeit in Wissenschaft und Praxis verwendeten Ansätze zur Prognose von Unternehmensinsolvenzen, Schätzgütemaßen von Insolvenzprognosen sowie Datenquellen, die für die Prognose von Unternehmensinsolvenzen zur Verfügung stehen. Anschließend entwickelt er ein kausales Unternehmensmodell, das er mit stochastischen Simulationsverfahren analysiert. Das Modell wird validiert und mit Benchmarkverfahren verglichen. Abschließend zeigt der Autor, wie das Modell zur Ableitung von Handlungsempfehlungen zur Beeinflussung der individuellen Insolvenzwahrscheinlichkeit von Unternehmen herangezogen werden kann.
|
70 |
Validation and Application of the System Code TRACE for Safety Related Investigations of Innovative Nuclear Energy SystemsJäger, Wadim 19 December 2011 (has links)
The system code TRACE is the latest development of the U.S. Nuclear Regulatory Commission (US NRC). TRACE, developed for the analysis of operational conditions, transients and accidents of light water reactors (LWR), is a best-estimate code with two fluid, six equation models for mass, energy, and momentum conservation, and related closure models. Since TRACE is mainly applied to LWR specific issues, the validation process related to innovative nuclear systems (liquid metal cooled systems, systems operated with supercritical water, etc.) is very limited, almost not existing.
In this work, essential contribution to the validation of TRACE related to lead and lead alloy cooled systems as well as systems operated with supercritical water is provided in a consistent and corporate way. In a first step, model discrepancies of the TRACE source code were removed. This inconsistencies caused the wrong prediction of the thermo physical properties of supercritical water and lead bismuth eutectic, and hence the incorrect prediction of heat transfer relevant characteristic numbers like Reynolds or Prandtl number. In addition to the correction of the models to predict these quantities, models describing the thermo physical properties of lead and Diphyl THT (synthetic heat transfer medium) were implemented. Several experiments and numerical benchmarks were used to validate the modified TRACE version. These experiments, mainly focused on wall-to-fluid heat transfer, revealed that not only the thermo physical properties are afflicted with inconsistencies but also the heat transfer models. The models for the heat transfer to liquid metals were enhanced in a way that the code can now distinguish between pipe and bundle flow by using the right correlation. The heat transfer to supercritical water was not existing in TRACE up to now. Completely new routines were implemented to overcome that issue.
The comparison of the calculations to the experiments showed, on one hand, the necessity of these changes and, on the other hand, the success of the new implemented routines and functions. The predictions using the modified TRACE version were close to the experimental data. After validating the modified TRACE version, two design studies related to the Generation IV International Forum (GIF) were investigated. In the first one, a core of a lead-cooled fast reactor (LFR) was analyzed. To include the interaction between the thermal hydraulic and the neutron kinetic due to temperature and density changes, the TRACE code was coupled to the program system ERANOS2.1. The results gained with that coupled system are in accordance with theory and helped to identify sub-assemblies with the highest loads concerning fuel and cladding temperature. The second design which was investigated was the High Performance Light Water Reactor (HPLWR). Since the design of the HPLWR is not finalized, optimization of vital parameters (power, mass flow rate, etc.) are still ongoing. Since most of the parameters are affecting each other, an uncertainty and sensitivity analysis was performed. The uncertainty analysis showed the upper and lower boundaries of selected parameters, which are of importance from the safety point of view (e.g., fuel and cladding temperature, moderator temperature). The sensitivity study identified the most relevant parameters and their influence on the whole system.
|
Page generated in 0.3067 seconds