• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 21
  • 5
  • 3
  • Tagged with
  • 70
  • 31
  • 21
  • 20
  • 20
  • 16
  • 13
  • 11
  • 10
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Entwicklung fortgeschrittener Quantifizierungsverfahren für die radiometrische Analyse von Zweiphasenströmungen

Wagner, Michael 04 March 2020 (has links)
Zweiphasenströmungen sind Strömungen von heterogenen Stoffgemischen, die aus zwei verschiedenen und voneinander getrennten homogenen Materialien, den Phasen, bestehen und bei einer Vielzahl technischer Anwendungen auftreten, wie zum Beispiel in der chemischen Industrie und der Energietechnik. Dort beeinflussen Zweiphasenströmungen maßgeblich die Prozesseffizienz und -sicherheit. Radiometrische Messverfahren bieten aufgrund ihrer Nicht-invasivität und dem hohen Durchdringungsvermögen die Möglichkeit, diese Strömungen zu visualisieren sowie deren Parameter zur Charakterisierung zu bestimmen. Die quantitativ hoch-genaue Parameterbestimmung kann dabei durch einige Aspekte erschwert werden, die bisher nicht durch Standardalgorithmen berücksichtigt werden können. Bei der Bestimmung von zeitgemittelten Phasenanteilen durch densitometrische und tomo-graphische Messungen kann bei geringen Zählraten die dynamische Verzerrung auftreten, die systematisch zu einer Verfälschung der zu bestimmenden Phasenanteile führt. Mit dem in dieser Arbeit entwickelten Verfahren des korrekten Mittelns kann die dynamische Verzerrung voll-ständig korrigiert werden. Bei der Anwendung des Verfahrens des korrekten Mittelns müssen schlecht konditionierte lineare Gleichungssysteme gelöst werden. Durch geeignete Regularisierungsverfahren lassen sich die Abweichungen vom Mittelwert bei ausreichender Zählratenstatistik beliebig stark verringern. Der Ansatz des Verfahrens des korrekten Mittelns kann bei densitometrischen Messungen von Gas-Flüssigkeits-Strömungen genutzt werden, um auf Basis der Gasgehalts-Wahrscheinlichkeitsdichte das Strömungsregime bei geringen Zähl-raten zu ermitteln. Die Röntgencomputertomographie ermöglicht die Bestimmung von räumlich und zeitlich aufgelösten Phasenverteilungen. Durch Strahlaufhärtung, Streustrahlung und geometrische Verzerrungen können die rekonstruierten Bilder Artefakte enthalten, die die Phasenanteile signifikant verfälschen. Streustrahlung und Strahlaufhärtung können beim ultraschnellen Elektronenstrahl-Röntgencomputertomographen ROFEX durch geeignete Normierungen mit Referenzmessdaten erheblich verringert werden. Weitere Reduktionen der Streustrahlungs-artefakte lassen sich durch Kollimation und einer strahlwegbasierten Vorwärtssimulation der Streustrahlung in der Bildebene erreichen. Durch äußere Einflüsse kann es beim ROFEX zu unerwünschten Ablenkungen des freien Elektronenstrahls kommen, was zu Verzerrungen in den Bildern führt. Die Korrektur kann mithilfe eines iterativen Algorithmus erfolgen, der auf Basis der Schärfe der Bilddaten den Pfad des Elektronenstrahls schätzt und somit die exakte Strahlweggeometrie für die Bildrekonstruktion ermittelt. / Two-phase flows are flows of heterogeneous material mixtures consisting of two different and separated homogeneous materials, the phases, which occur in many technical applications, such as in the chemical industry and energy technology. There, two-phase flows have a significant influence on process efficiency and safety. Due to their non-invasiveness and high penetration capability, radiometric measurement methods offer the possibility of visualizing these flows and determining their parameters for characterization. The quantitative high-precision determination of parameters is hampered by some aspects that are not taken into account by standard algorithms. When determining time-averaged phase fractions by densitometric and tomographic measurements, the dynamic bias error can occur at low count rates, which systematically leads to a falsification of the phase fractions to be determined. With the correct averaging method developed in this thesis, the dynamic bias error can be completely corrected. When applying the correct averaging method, ill-conditioned linear equation systems have to be solved. By suitable regularization methods, the deviations from the exact mean value can be reduced arbitrarily strongly with sufficient count rate statistics. The approach of the correct averaging method can be used for densitometric measurements of gas-liquid flows to determine the flow regime at low count rates on the basis of the gas fraction probability density. X-ray computed tomography enables the determination of spatially and temporally resolved phase distributions. The reconstructed images can contain artifacts due to beam hardening, scattered radiation and geometric distortions, which significantly falsify the phase fractions. In the ROFEX ultrafast electron beam X-ray computer tomography system, scattered radiation and beam hardening can be significantly reduced by suitable normalization with reference measurement data. Further reductions of scatter artifacts can be achieved by collimation and ray-tracking based forward simulation of scattered radiation in the image plane. Due to external influences around the ROFEX, undesired deflections of the free electron beam can occur, which leads to distortions in the images. The correction can be performed using an iterative algorithm that estimates the path of the electron beam based on the sharpness of the image data and thus determines the exact beam path geometry for the image reconstruction.
52

Identifikation menschlicher Einflüsse auf Verkehrsunfälle als Grundlage zur Beurteilung von Fahrerassistenzsystem-Potentialen

Staubach, Maria 02 February 2010 (has links)
Die vorliegende Arbeit leistet einen Beitrag zur Identifizierung von Einflussgrößen und Fehlerursachen auf Verkehrsunfälle. Diese können als Grundlage für Hinweise für den Einsatz und die Gestaltung von Fahrerassistenzsystemen genutzt werden. Dafür wurden insgesamt 506 Unfälle umfassend (in depth) untersucht. Zur Analyse der Pre-Crash-Phase der Unfälle wurden die Ergebnisse einer psychologischen Befragung mit Angaben aus der polizeilichen Verkehrsunfallanzeige, Informationen zur Unfallstelle, medizinischen Berichten sowie Informationen aus der technischen Rekonstruktion integriert. Anschließend wurde eine Fehleranalyse unter Betrachtung der Teilsysteme Fahrer, Umwelt und Fahrzeug durchgeführt. Um den bestmöglichen Befragungszeitpunkt herauszufinden, wurden in einer Vorstudie jeweils 15 Interviews am Unfallort sowie telefonische Interviews ein bis 14 Tage bzw. 15 bis 90 Tage nach dem Unfall bezüglich der Anzahl ihrer Genauigkeits- und Glaubhaftigkeitsmerkmale, der Motivation zur Interviewteilnahme sowie möglicher Vergessenseffekte verglichen. Im Ergebnis konnten keine Nachteile nachträglicher telefonischer Befragungen im Vergleich zu Befragungen an der Unfallstelle gefunden werden. Zur Fehleranalyse wurde ein verkehrspsychologisches Fehlerklassifikationsschema auf der Basis der verhütungsbezogenen Klassifikation von Fehlhandlungsursachen (Hacker, 1998) erstellt. Mit dessen Hilfe wurden insgesamt 696 Unfalleinflussfaktoren für die Unfallverursacher (n=343) ermittelt. Im Ergebnis wurde so bei allen Unfalltypengruppen ein hoher Anteil von Fehlern infolge von Ablenkung sowie Aktivierungsmängeln festgestellt (jeweils zwischen 28 % und 47%). Des Weiteren gab es bei Kreuzungsunfällen zahlreiche Fehler infolge von Sichtverdeckungen (40%), Fokusfehlern (30%), Reizmaskierungen (26%) und Verstößen gen die Verkehrsregeln (11%). Unfälle durch Abkommen von der Fahrbahn traten zudem häufig infolge von Erwartungsfehlern (35%), Reizmaskierungen (26%), Verstößen gegen die Verkehrsregeln (24%) sowie Zielsetzungs- bzw. Handlungsfehler (23%) auf. Unfälle im Längsverkehr passierten des Weiteren durch Erwartungsfehler (36%), Zielsetzungs- und Handlungsfehler (36%) sowie durch Setzen eines falschen Aufmerksamkeitsfokus (24%) auf. Anhand dieser Studienergebnisse ist das Sicherheitspotential für Fahrerassistenzsysteme, welche den Fahrer bei der Informationsaufnahme unterstützen und ihm helfen Ablenkungen und Aktivierungsdefizite zu vermeiden, als hoch einzuschätzen. So könnten insgesamt über zwei Drittel der erfassten Fehlhandlungen vermieden werden. Darüber hinaus münden die Studienergebnisse in ein Klassifikationsschema zur Erfassung von Unfalleinflussfaktoren, welches im Rahmen der Unfallforschung dauerhaft eingesetzt werden sollte.
53

Formal Configuration of Fault-Tolerant Systems

Herrmann, Linda 28 May 2019 (has links)
Bit flips are known to be a source of strange system behavior, failures, and crashes. They can cause dramatic financial loss, security breaches, or even harm human life. Caused by energized particles arising from, e.g., cosmic rays or heat, they are hardly avoidable. Due to transistor sizes becoming smaller and smaller, modern hardware becomes more and more prone to bit flips. This yields a high scientific interest, and many techniques to make systems more resilient against bit flips are developed. Fault-tolerance techniques are techniques that detect and react to bit flips or their effects. Before using these techniques, they typically need to be configured for the particular system they shall protect, the grade of resilience that shall be achieved, and the environment. State-of-the-art configuration approaches have a high risk of being imprecise, of being affected by undesired side effects, and of yielding questionable resilience measures. In this thesis we encourage the usage of formal methods for resiliency configuration, point out advantages and investigate difficulties. We exemplarily investigate two systems that are equipped with fault-tolerance techniques, and we apply parametric variants of probabilistic model checking to obtain optimal configurations for pre-defined resilience criteria. Probabilistic model checking is an automated formal method that operates on Markov models, i.e., state-based models with probabilistic transitions, where costs or rewards can be assigned to states and transitions. Probabilistic model checking can be used to compute, e.g., the probability of having a failure, the conditional probability of detecting an error in case of bit-flip occurrence, or the overhead that arises due to error detection and correction. Parametric variants of probabilistic model checking allow parameters in the transition probabilities and in the costs and rewards. Instead of computing values for probabilities and overhead, parametric variants compute rational functions. These functions can then be analyzed for optimality. The considered fault-tolerant systems are inspired by the work of project partners. The first system is an inter-process communication protocol as it is used in the Fiasco.OC microkernel. The communication structures provided by the kernel are protected against bit flips by a fault-tolerance technique. The second system is inspired by the redo-based fault-tolerance technique \haft. This technique protects an application against bit flips by partitioning the application's instruction flow into transaction, adding redundance, and redoing single transactions in case of error detection. Driven by these examples, we study challenges when using probabilistic model checking for fault-tolerance configuration and present solutions. We show that small transition probabilities, as they arise in error models, can be a cause of previously known accuracy issues, when using numeric solver in probabilistic model checking. We argue that the use of non-iterative methods is an acceptable alternative. We debate on the usability of the rational functions for finding optimal configurations, and show that for relatively short rational functions the usage of mathematical methods is appropriate. The redo-based fault-tolerance model suffers from the well-known state-explosion problem. We present a new technique, counter-based factorization, that tackles this problem for system models that do not scale because of a counter, as it is the case for this fault-tolerance model. This technique utilizes the chain-like structure that arises from the counter, splits the model into several parts, and computes local characteristics (in terms of rational functions) for these parts. These local characteristics can then be combined to retrieve global resiliency and overhead measures. The rational functions retrieved for the redo-based fault-tolerance model are huge - for small model instances they already have the size of more than one gigabyte. We therefor can not apply precise mathematic methods to these functions. Instead, we use the short, matrix-based representation, that arises from factorization, to point-wise evaluate the functions. Using this approach, we systematically explore the design space of the redo-based fault-tolerance model and retrieve sweet-spot configurations.
54

Modellbasierte Berechnung der frequenzabhängigen Stromverteilung in räumlich ausgedehnten Erdungssystemen

Küchler, Benjamin 14 March 2024 (has links)
Die Auslegung von Erdungsanlagen nach der DIN EN 50522 basiert im Wesentlichen auf der Bewertung der bei Erdfehler auftretenden Erdungs- bzw. Berührungsspannungen. Deren Berechnung setzt die Kenntnis der Fehlerstromaufteilung (bzw. der wirksamen Reduktionsfaktoren) voraus, da nur der Stromanteil, der als Erdungsstrom über der Erdungsimpedanz wirksam wird, tendenziell gefährliche Potentialanhebungen verursacht. Maßgebend für die Verteilung der Ströme im Erdungssystem sind die induktiven Kopplungen zwischen dem fehlerstromführenden Leiter und den zum Sternpunkt zurückführenden Strompfaden. Daraus geht hervor, dass sowohl die räumliche Anordnung der Leiter als auch die Frequenz der Fehlerstromanteile die vorherrschenden Verhältnisse entscheidend beeinflussen. Beide Einflüsse werden in den Standards und der Fachliteratur bis dato nur bedingt betrachtet. Diese Arbeit befasst sich daher mit der rechnerischen Bestimmung und Bewertung der Potentialanhebungen, welche sich im Falle eines Erdfehlers in Abhängigkeit von den Frequenzanteilen des Fehlerstroms in unterschiedlich aufgebauten Erdungssystemen ergeben. Wesentlicher Bestandteil der Ausführungen ist die Entwicklung eines Modells zur Berechnung der frequenzabhängigen Stromverteilung und den daraus resultierenden Erdungsspannungen in verbundenen Erdungsanlagen. Dieses bildet, in Erweiterung zu bestehenden Ansätzen, insbesondere den Einfluss der dreidimensionalen Anordnung der Leiter auf deren magnetische Kopplungen ab. Durch theoretische Betrachtungen und begleitende Messungen werden die Grenzen derartiger rechnerischer Bewertungsverfahren aufgezeigt. Anhand einfacher Modellanordnungen wird beispielhaft der Einfluss der räumlichen Struktur des Erdungssystems auf die frequenzabhängige Fehlerstromverteilung, die wirksamen Erdungsimpedanzen und die resultierenden Erdungsspannungen analysiert. Dabei werden explizit Erdfehler an zusammengeschlossenen Hoch- und Niederspannungs-Erdungsanlagen untersucht. Die Ergebnisse zeigen, dass rein zweidimensionale Berechnungsverfahren den theoretischen Worst-Case hinsichtlich der Erdungsspannung nicht abdecken. Für die praktische Anwendung des Modells werden sowohl Vereinfachungen als auch zusätzliche Sicherheitsaufschläge abgeleitet. Weiterhin erfolgt die modellbasierte Untersuchung einpoliger Fehler in voll- und teilverkabelten Netzen. Im Fokus steht dabei die potentialanhebende Wirkung der Frequenzanteile des einpoligen Fehlerstroms. Es wird aufgezeigt, dass infolge der induktiven Kopplungen ein hoher Anteil des Rückstroms in den beidseitig geerdeten Schirmen der fehlerstromführenden Kabel fließt. Bedingt durch die Frequenzcharakteristik des Reduktionsfaktors wirken die höherfrequenten Anteile des Erdfehlerstroms in vollverkabelten Netzgebieten in deutlich geringerem Maße potentialanhebend als der Grundschwingungsanteil. Daher lassen sich insbesondere für die Erdungssysteme von Kabelnetzen mit Resonanz-Sternpunkterdung vereinfachte Bewertungsmethoden ableiten. In Summe liefert diese Arbeit einen Beitrag dazu, wie der rechnerische Nachweis zulässiger Berührungsspannungen geführt und das Prozedere zur Auslegung von Erdungsanlagen vereinfacht werden kann. / The design of earthing installations in European high voltage grids has to comply with the standard EN 50522. The determining quantities for the risk assessment are the touch and step voltages occurring during an earth fault. Since the direct estimation of these voltages is complicated, earthing installations are usually assessed by means of the earth potential rise. For the calculation of the earth potential rise the knowledge of the fault current distribution (or the effective reduction factors) is required, since only the proportional current to earth raises the potential of the earthing installations. The inductive coupling between the conductor carrying the fault current and the current paths leading back to the neutral point is decisive for the distribution of the currents in the earthing system. This indicates that both the spatial arrangement of the conductors and the frequency of the fault current components have a determining influence on the prevalent conditions. To date, both influences have only been considered to a minor extent in the standards and technical literature. This thesis relates to the calculation and evaluation of the earth potential rises in differently structured earthing systems. Thereby, the varying potential raising effect of the harmonics in the earth fault current is examined. For this purpose, a model for the calculation of the frequency-dependent current distribution in interconnected earthing installations is developed. In extension to existing approaches, this model particularly represents the influence of the three-dimensional arrangement of the conductors on their magnetic coupling. Through theoretical considerations and accompanying measurements, the limits of such calculational evaluation methods are demonstrated. Based on simple model arrangements, the influence of the spatial structure of the earthing system on the frequency-dependent fault current distribution (reduction factors), the effective impedances to earth and the resulting earth potential rise is analysed exemplarily. Thereby, earth faults at interconnected high-voltage and low-voltage earthing installations are investigated explicitly. The results show that two-dimensional calculation methods do not cover the theoretical worst case regarding the earth potential rise. For the practical application of the model, simplifications as well as additional safety surcharges are derived. Furthermore, model-based investigations of single-pole faults in fully and partially cabled grids are carried out. The focus is on the potential-raising effect of the harmonic components of the single-pole fault current. It is shown that, due to inductive coupling, a high percentage of the return current flows via the shields of the cables carrying the fault current. Due to the frequency characteristic of the reduction factor, in fully cabled grid areas higher-frequency components of the earth fault current have a significantly lower potential-raising effect than the fundamental component. Particularly for the earthing systems of cable grids with resonant earthing, simplified assessment methods can thus be derived. In summary, this thesis provides a contribution on how to proof permissible touch voltages by calculation and how to simplify the procedure for the assessment of earthing installations in perspective.
55

Kennfeldbasierte Korrektur thermo-elastischer Verformungen an spanenden Werkzeugmaschinen

Naumann, Christian 25 March 2024 (has links)
Spanende Werkzeugmaschinen erfahren während ihres Betriebes signifikante interne Wärmeeinträge, u.a. durch die Verlustleistung der Antriebe, Reibung der Lager und Führungen und den Bearbeitungsprozess. Gleichzeitig sind sie aber auch wechselnden externen Umgebungseinflüssen ausgesetzt. Diese Vielzahl an thermischen Einflüssen erzeugt transiente Temperaturfelder in der Werkzeugmaschine, die variable Deformationen in der Maschinenstruktur verursachen. Die Auswirkung dieser Deformationen auf den Tool-Center-Point verringert die Positioniergenauigkeit und wirkt sich letztendlich negativ auf die Werkstückqualität aus. Diese Verformungen werden im hier entwickelten Verfahren, der kennfeldbasierten Korrektur, durch hochdimensionale Kennfelder mit Hilfe von Live-Sensordaten vorhergesagt und online in der Maschinensteuerung durch berechnete Offsets korrigiert. Wenngleich das prinzipielle Vorgehen anderen verwandten Korrekturverfahren, wie der Regressionsanalyse, ähnelt, müssen für die effiziente Nutzung von Kennfeldern als Modellierungstool verschiedene Aspekte der Korrektur neu untersucht bzw. vertieft werden. Am Ende erfolgt eine Implementierung und Validierung des Verfahrens an zwei ausgewählten Demonstratoren.:Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis Symbolverzeichnis 1 Einleitung 1.1 Motivation 1.2 Überblick über die Inhalte der Arbeit 2 Stand der Technik 2.1 Maßnahmen zur Reduktion thermo-elastischer Effekte 2.1.1 Korrekturverfahren 2.1.2 Kompensationsstrategien 2.2 Kennfeldberechnung mit Smoothed Grid Regression 2.2.1 Kernfunktionsansatz 2.2.2 SGR im 2D mit bilinearer Interpolation 2.2.3 SGR in n Dimensionen mit n-linearer Interpolation 2.2.4 Kennfeldberechnung 2.2.5 Glättungsbedingungen 2.2.6 Daten- versus Glättungsfehler 2.2.7 Lösung des linearen Gleichungssystems 3 Einordnung in den Stand der Technik 4 Kennfeldbasierte Korrektur Thermo-elastischer Verformungen 4.1 Idee der kennfeldbasierten Korrektur 4.2 Trainingsdaten zum Anlernen der Korrekturkennfelder 4.3 Erstellung der kennfeldbasierten Korrektur 4.3.1 Wahl der Kernfunktionen 4.3.2 Wahl der Glättungsbedingungen 4.3.3 Wahl der Daten- und Glättungsgewichte 4.4 Anwendungsbeispiel und Ableitung von Anpassungsbedarfen 5 Numerische Berechnung hochdimensionaler Kennfelder 5.1 Numerische Handhabung großer SGR-Modelle 5.2 Effiziente Kennfeldberechnung durch Mehrgitterverfahren 5.3 Einbettung von Glättungsbedingungen höherer Ordnung 5.3.1 Motivation und eine Beispielfunktion 5.3.2 Finite-Elemente-Ansatz für Glättung höherer Ordnung 5.3.3 Test und Vergleich der Berechnungsvarianten 5.3.4 Neue Kombinationsmethode für lineare Extrapolation 5.4 Erprobung und Vergleich von Mehrgitterlösern 6 Optimierung der Kennfeldgitter 6.1 Kennfeldgitter 6.2 Wichtige Gitterstrukturen 6.2.1 Äquidistante Gitter 6.2.2 Gitter mit variablen Achsintervallen 6.2.3 Transformierte Gitter 6.2.4 Gitter mit Substrukturen 6.2.5 Dünne Gitter (sparse grids) 6.2.6 Vergleich der Arten von Kennfeldgittern 7 Optimale Sensorplatzierung und Auswahl der Kennfeldeingänge 7.1 Typen von Eingangsvariablen und deren Eignung zur Korrektur 7.2 Eignung von Temperaturgradienten in Kennfeldern 7.3 Methoden der Variablenauswahl 7.3.1 Sensitivitätsanalyse 7.3.2 Hauptkomponenten-Analyse (PCA) 7.3.3 Sequentielle Heuristik 7.3.4 Stabilitätsanalyse 7.3.5 Vergleich und experimentelle Validierung der Verfahren 8 Implementierung und Validierung der kennfeldbasierten Korrektur 8.1 Korrekturwertaufschaltung in einer Maschinensteuerung 8.2 Erprobung und Validierung der Korrektur 8.2.1 MiniHex 8.2.2 DMU 80 eVo 8.3 Korrektur unter Produktionsbedingungen 8.4 Plausibilitätsüberprüfung 9 Bewertung und Erweiterungen zur kennfeldbasierten Korrektur 9.1 Vor- und Nachteile der kennfeldbasierten Korrektur 9.2 Aufwandsabschätzung und exemplarische Bewertung 9.2.1 Aufwandsabschätzung der kennfeldbasierten Korrektur 9.2.2 Bewertung an ausgewählten Beispielen 9.3 Kombination mit anderen Korrektur- und Kompensationsstrategien 9.4 Aktualisierung von Kennfeldern 9.5 Übertragbarkeit der Ergebnisse 10 Zusammenfassung 11 Ausblick A Anhang A.1 Datensätze A.1.1 Stab-Simulation A.1.2 Vermessung Auerbach ACW630 A.1.3 Simulation Maschinenständer ACW630 A.1.4 Vermessung MiniHex A.1.5 Simulation Maschinenständer mit bewegter Wärmequelle A.1.6 Vermessung 3-Achs-Bearbeitungszentrum Aachen A.1.7 Simulation DMU 80 eVo A.2 Biographie des Autors
56

Die Haftung des Gesuchstellers für ungerechtfertigte vorsorgliche Massnahmen /

Gutmann, Christoph. January 2006 (has links) (PDF)
Univ., Diss.--Basel, 2005.
57

Comprehensive Backend Support for Local Memory Fault Tolerance

Rink, Norman Alexander, Castrillon, Jeronimo 19 December 2016 (has links) (PDF)
Technological advances drive hardware to ever smaller feature sizes, causing devices to become more vulnerable to transient faults. Applications can be protected against faults by adding error detection and recovery measures in software. This is popularly achieved by applying automatic program transformations. However, transformations applied to program representations at abstraction levels higher than machine instructions are fundamentally incapable of protecting against vulnerabilities that are introduced during compilation. In particular, a large proportion of a program’s memory accesses are introduced by the compiler backend. This report presents a backend that protects these accesses against faults in the memory system. It is demonstrated that the presented backend can detect all single bit flips in memory that would be missed by an error detection scheme that operates on the LLVM intermediate representation of programs. The presented compiler backend is obtained by modifying the LLVM backend for the x86 architecture. On a subset of SPEC CINT2006 the runtime overhead incurred by the backend modifications amounts to 1.50x for the 32-bit processor architecture i386, and 1.13x for the 64-bit architecture x86_64. To achieve comprehensive detection of memory faults, the modified backend implements an adjusted calling convention that leaves library function calls transparent and intact.
58

Entwicklung einer Methode zum Aufdecken von potentiellen Fehlern in der Konstruktion

Henze, Lars 19 June 2008 (has links)
Vorbeugende QM-Techniken operationalisieren die Funktionen des Qualitätsmanagements (QM) mit dem Ziel einer abgesicherten Produktentstehung. Sie leisten einen wesentlichen Beitrag zur Erhöhung der Produktqualität. Jedoch zeigen Untersuchungen, dass deren Einsatz häufig sehr große Probleme bereitet. Die vorliegende Arbeit untersucht vordergründig die FMEA, QFD und DRBFM. Neben der Beschreibung ihrer Anwendungsbereiche, werden die Vorteile und Schwächen gegenübergestellt. Es gilt, die Schwächen mit Hilfe einer neu entwickelten Methode zu umgehen bzw. zu eliminieren. Die Entwicklung zentraler Schwerpunkte zur Erreichung von Null-Fehlerqualität liefert die Basis für die Erstellung einer Checkliste in Form eines Fragenkataloges. Ziel soll es sein, durch die Systematik des Fragenkataloges und Wahl des Antwortformates Fehlerursachen zu vermeiden.
59

Comprehensive Backend Support for Local Memory Fault Tolerance

Rink, Norman Alexander, Castrillon, Jeronimo 19 December 2016 (has links)
Technological advances drive hardware to ever smaller feature sizes, causing devices to become more vulnerable to transient faults. Applications can be protected against faults by adding error detection and recovery measures in software. This is popularly achieved by applying automatic program transformations. However, transformations applied to program representations at abstraction levels higher than machine instructions are fundamentally incapable of protecting against vulnerabilities that are introduced during compilation. In particular, a large proportion of a program’s memory accesses are introduced by the compiler backend. This report presents a backend that protects these accesses against faults in the memory system. It is demonstrated that the presented backend can detect all single bit flips in memory that would be missed by an error detection scheme that operates on the LLVM intermediate representation of programs. The presented compiler backend is obtained by modifying the LLVM backend for the x86 architecture. On a subset of SPEC CINT2006 the runtime overhead incurred by the backend modifications amounts to 1.50x for the 32-bit processor architecture i386, and 1.13x for the 64-bit architecture x86_64. To achieve comprehensive detection of memory faults, the modified backend implements an adjusted calling convention that leaves library function calls transparent and intact.
60

Smart Maintenance mit industriellen Apps - eine Fallstudie

Gerhardt, Tom 20 November 2020 (has links)
In dieser Masterarbeit wird ein digitalisiertes Assistenzsystem, welches weniger erfahrenen Mitarbeitern hilft, Instandhaltungsaufgaben zu verrichten, in einer Laborumgebung implementiert. Aus theoretischen Vorbetrachtungen über den digitalen Wandel, welcher im Bereich der Instandhaltung feststellbar ist, wird die Untersuchungsfrage abgeleitet. Diese Masterarbeit setzt sich das Ziel, herauszufinden, wie Problemlösungprozesse von Instandhaltern mittels industrieller Assistenzsysteme unterstützt werden können. Dabei werden eine App (im Folgenden: Wartungsapp), eine Testumgebung sowie ein Kategoriensystem aufgebaut, um der Untersuchungsfrage nachgehen zu können. Ergebnisse aus einer Arbeitsbeobachtung von Testpersonen in Interaktion mit der Wartungsapp werden in Form von Transkripten und Prozessdarstellungen festgehalten. Die Interpretation der Ergebnisse zeigt auf, dass verschiedene Stellschrauben anzunehmen sind, die über Erfolg oder Misserfolg der kosten- und ressourcensparenden Implementierung eines industriellen Assistenzsystems für die Instandhaltung entscheiden können. Zusammenhänge über Schutzfunktionen, Menüführung und Gestaltung der Benutzeroberfläche werden anschließend erläutert und für eventuelle Folgeprojekte vorbereitet. / In this master thesis a digitalized assistance system, which helps less experienced employees to perform maintenance tasks, is implemented in a test environment. The research question is derived from theoretical considerations about a certain digital change that can be observed in the field of maintenance. This master thesis aims to find out how problem solving processes of maintenance personnel can be supported by industrial assistance systems. An app (in the following: maintenance app), a test environment and a category system are developed to answer the research question. Results from a work observation of test persons in interaction with the maintenance app are recorded in the form of transcripts and process representations. The interpretation of the results shows that there are several factors that can determine the success or failure of an industrial maintenance assistance system. Furthermore protective functions, menu navigation and design of the user interfaces are explained and prepared for possible follow-up projects.

Page generated in 0.0759 seconds