• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 16
  • 8
  • Tagged with
  • 83
  • 82
  • 62
  • 53
  • 53
  • 53
  • 20
  • 17
  • 14
  • 10
  • 9
  • 9
  • 9
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The Relationship Between Software Complicacy and Software Reliability / Die Beziehung zwischen Softwarekompliziertheit und Softwarezuverlässigkeit

Dorin, Michael January 2022 (has links) (PDF)
An enduring engineering problem is the creation of unreliable software leading to unreliable systems. One reason for this is source code is written in a complicated manner making it too hard for humans to review and understand. Complicated code leads to other issues beyond dependability, such as expanded development efforts and ongoing difficulties with maintenance, ultimately costing developers and users more money. There are many ideas regarding where blame lies in the reation of buggy and unreliable systems. One prevalent idea is the selected life cycle model is to blame. The oft-maligned “waterfall” life cycle model is a particularly popular recipient of blame. In response, many organizations changed their life cycle model in hopes of addressing these issues. Agile life cycle models have become very popular, and they promote communication between team members and end users. In theory, this communication leads to fewer misunderstandings and should lead to less complicated and more reliable code. Changing the life cycle model can indeed address communications ssues, which can resolve many problems with understanding requirements. However, most life cycle models do not specifically address coding practices or software architecture. Since lifecycle models do not address the structure of the code, they are often ineffective at addressing problems related to code complicacy. This dissertation answers several research questions concerning software complicacy, beginning with an investigation of traditional metrics and static analysis to evaluate their usefulness as measurement tools. This dissertation also establishes a new concept in applied linguistics by creating a measurement of software complicacy based on linguistic economy. Linguistic economy describes the efficiencies of speech, and this thesis shows the applicability of linguistic economy to software. Embedded in each topic is a discussion of the ramifications of overly complicated software, including the relationship of complicacy to software faults. Image recognition using machine learning is also investigated as a potential method of identifying problematic source code. The central part of the work focuses on analyzing the source code of hundreds of different projects from different areas. A static analysis was performed on the source code of each project, and traditional software metrics were calculated. Programs were also analyzed using techniques developed by linguists to measure expression and statement complicacy and identifier complicacy. Professional software engineers were also directly surveyed to understand mainstream perspectives. This work shows it is possible to use traditional metrics as indicators of potential project bugginess. This work also discovered it is possible to use image recognition to identify problematic pieces of source code. Finally, this work discovered it is possible to use linguistic methods to determine which statements and expressions are least desirable and more complicated for programmers. This work’s principle conclusion is that there are multiple ways to discover traits indicating a project or a piece of source code has characteristics of being buggy. Traditional metrics and static analysis can be used to gain some understanding of software complicacy and bugginess potential. Linguistic economy demonstrates a new tool for measuring software complicacy, and machine learning can predict where bugs may lie in source code. The significant implication of this work is developers can recognize when a project is becoming buggy and take practical steps to avoid creating buggy projects. / Ein nach wie vor ungelöstes technisches Problem ist das Erstellen unzuverlässiger Software, was zu unzuverlässigen Systemen führt. Eine der Ursachen ist, dass Quellcode auf zu komplizierte Weise geschrieben wird, so dass es für Menschen zu schwierig wird, ihn zu überprüfen und zu verstehen. Komplizierter Code führt über die Zuverlässigkeit hinaus zu weiteren Problemen, wie z. B. erweiterte Entwicklungsanstrengungen und anhaltenden Schwierigkeiten bei der Wartung, was Entwickler und Benutzer letztendlich mehr Geld kostet. Vielfach schiebt man die Schuld an der Entwicklung von BuggySystemen auf das gewählte Lebenszyklusmodell. Das oft geschmähte "Wasserfall"-Modell wird besonders häufig beschuldigt. Als Reaktion darauf änderten viele Organisationen ihr Lebenszyklusmodell in der Hoffnung, diese Probleme zu beheben. Agile Lebenszyklusmodelle sind sehr beliebt und fördern die Kommunikation zwischen Entwicklungsteam und Endnutzern. Theoretisch führt diese Kommunikation zu weniger Missverständnissen, und ein besseres Verständnis sollte zu weniger kompliziertem und zuverlässigerem Code führen. Eine Änderung des Lebenszyklusmodells kann tatsächlich Kommunikationsprobleme lösen, insbesondere beim Verständnis der Anforderungen. Die meisten Lebenszyklusmodelle selbst befassen sich jedoch nicht speziell mit Codierungspraktiken oder Softwarearchitekturen. Da Lebenszyklusmodelle aber nicht auf die Struktur des eigentlichen Codes eingehen, sind sie bei der Lösung von Problemen im Zusammenhang mit Codekompliziertheit wenig hilfreich. Diese Dissertation behandelt mehrere Forschungsfragen zur Softwarekompliziertheit, beginnend mit einer Untersuchung traditioneller Metriken und statischer Analyse, um ihre Nützlichkeit als Messwerkzeug zu bewerten. Diese Dissertation etabliert auch ein wesentliches neues Konzept der angewandten Linguistik, indem sie auf der Basis der linguistischen Ökonomie ein Maß für Softwarekompliziertheit erstellt. Die linguistische Ökonomie beschreibt die Effizienz von Sprache, und diese Arbeit zeigt ihre Anwendbarkeit auf Software. Darin eingeschlossen ist eine Diskussion der Auswirkungen übermäßig komplizierter Software sowie des Zusammenhangs zwischen Kompliziertheit und Softwarefehlern. Als potenzielle Methode zur Identifizierung von problematischem Quellcode wird auch Bilderkennung mittels maschinellen Lernens untersucht. Der zentrale Teil der Arbeit konzentriert sich auf die Analyse des Quellcodes hunderter verschiedener Projekte aus unterschiedlichen Bereichen. Zuerst wird eine statische Analyse des Quellcodes jedes Projekts durchgeführt und traditionelle Softwaremetriken berechnet. Programme werden auch unter Verwendung linguistischenr Techniken analysiert, um die Kompliziertheit von Ausdrücken und Aussagen sowie die Kompliziertheit von Identifikatoren zu messen. Professionelle Software-Ingenieure wurden auch direkt befragt, um Mainstream-Perspektiven zu verstehen. Diese Arbeit zeigt, dass es möglich ist, traditionelle Metriken als Indikatoren für potenzielle Projektfehler zu verwenden. Sie belegt auch die Möglichkeit, vermittels Bilderkennung problematische Teile im Quellcode zu identifizieren. Schließlich beschreibt diese Arbeit die Entdeckung linguistischer Verfahren als neue Methode, Anweisungen und Ausdrücke zu identifizieren, die für Programmierer am wenigsten wünschenswert, da zu kompliziert sind. Die Hauptschlussfolgerung dieser Arbeit ist: Es gibt mehrere Möglichkeiten, Merkmale zu finden, die darauf hindeuten, dass ein Projekt oder ein StückQuellcode fehlerbehaftet ist. Herkömmliche Metriken und statische Analysen können verwendet werden, um ein Verständnis für Kompliziertheit und Fehlerpotenziale von Software zu erlangen. Die linguistische Ökonomie demonstriert ein neues Werkzeug zur Messung von Softwarekompliziertheit, und maschinelles Lernen kann vorhersagen, wo potenzielle Fehler im Quellcode liegen könnten. Das wesentliche Ergebnis dieser Arbeit ist, Entwicklern Werkzeuge zur Verfügung zu stellen, mit denen sie erkennen können, dass ein Projekt fehlerhaft wird. So können sie praktische Schritte unternehmen, um fehlerhafte Projekte zu vermeiden.
2

Dienste: Zuverlässigkeit, Verfügbarkeit und Ausfallrisiken

Müller, Thomas 03 September 2002 (has links)
Gemeinsamer Workshop von Universitaetsrechenzentrum und Professur Rechnernetze und verteilte Systeme der Fakultaet fuer Informatik der TU Chemnitz. Ausgehend von allgemeinen Qualitätsmerkmalen von IT-Diensten widmet sich der Vortrag besonders den Aspekten Zuverlässigkeit, Verfügbarkeit und Ausfallrisiken. Dabei steht die Darstellung von zwei Verfahren im Vordergrund, die der Beurteilung und Analyse von Risiken dienen: Ereignisbaumanalyse (event tree analysis) und Fehlerbaumanalyse (fault tree analysis). Beide Verfahren werden an Hand eines Beispielszenariums (Mail-Transport) vorgestellt.
3

Network Coding for Reliable Data Dissemination in Wireless Sensor Networks / Netzwerkkodierung für zuverlässige Datenverteilung in drahtlosen Sensornetzen

Runge, Isabel Madeleine January 2022 (has links) (PDF)
The application of Wireless Sensor Networks (WSNs) with a large number of tiny, cost-efficient, battery-powered sensor nodes that are able to communicate directly with each other poses many challenges. Due to the large number of communicating objects and despite a used CSMA/CA MAC protocol, there may be many signal collisions. In addition, WSNs frequently operate under harsh conditions and nodes are often prone to failure, for example, due to a depleted battery or unreliable components. Thus, nodes or even large parts of the network can fail. These aspects lead to reliable data dissemination and data storage being a key issue. Therefore, these issues are addressed herein while keeping latency low, throughput high, and energy consumption reduced. Furthermore, simplicity as well as robustness to changes in conditions are essential here. In order to achieve these aims, a certain amount of redundancy has to be included. This can be realized, for example, by using network coding. Existing approaches, however, often only perform well under certain conditions or for a specific scenario, have to perform a time-consuming initialization, require complex calculations, or do not provide the possibility of early decoding. Therefore, we developed a network coding procedure called Broadcast Growth Codes (BCGC) for reliable data dissemination, which performs well under a broad range of diverse conditions. These can be a high probability of signal collisions, any degree of nodes' mobility, a large number of nodes, or occurring node failures, for example. BCGC do not require complex initialization and only use simple XOR operations for encoding and decoding. Furthermore, decoding can be started as soon as a first packet/codeword has been received. Evaluations by using an in-house implemented network simulator as well as a real-world testbed showed that BCGC enhance reliability and enable to retrieve data dependably despite an unreliable network. In terms of latency, throughput, and energy consumption, depending on the conditions and the procedure being compared, BCGC can achieve the same performance or even outperform existing procedures significantly while being robust to changes in conditions and allowing low complexity of the nodes as well as early decoding. / Der Einsatz von drahtlosen Sensornetzen (Wireless Sensor Networks, WSNs) mit einer Vielzahl hochintegrierter, kostengünstiger und batteriebetriebener Sensorknoten, die direkt miteinander kommunizieren können, birgt viele Herausforderungen. Aufgrund der großen Anzahl von kommunizierenden Objekten kann es trotz eines verwendeten CSMA/CA MAC Protokolls zu vielen Signalkollisionen kommen. Darüber hinaus arbeiten WSNs häufig unter rauen Bedingungen und die Knoten sind oft anfällig für Ausfälle, z.B. aufgrund aufgebrauchter Energiekapazität oder defekter Komponenten. Infolgedessen können einzelne Knoten oder auch große Teile des Netzes ausfallen. Diese Aspekte führen dazu, dass zuverlässige Datenverteilung und Datenhaltung von entscheidender Bedeutung sind und folglich im Rahmen dieser Arbeit adressiert werden. Gleichzeitig soll die Latenz niedrig, der Durchsatz hoch und der Energieverbrauch möglichst gering gehalten werden. Des Weiteren sind eine geringe Komplexität sowie Robustheit gegenüber veränderten Bedingungen wesentlich. Um diese Ziele zu erreichen, ist ein gewisses Maß an Redundanz nötig. Dies kann beispielsweise durch die Verwendung von Netzwerkkodierung realisiert werden. Bestehende Ansätze liefern jedoch oft nur unter bestimmten Bedingungen oder für ein spezifisches Szenario gute Performanz-Ergebnisse, müssen aufwändig initialisiert werden, benötigen komplexe Berechnungen oder bieten keine Möglichkeit für frühzeitige Dekodierung. Daher haben wir ein als Broadcast Growth Codes (BCGC) bezeichnetes Netzwerkkodierungsverfahren für zuverlässige Datenverteilung entwickelt, welches unter einem breiten Spektrum unterschiedlicher Bedingungen gute Ergebnisse erzielt. Zu diesen Bedingungen gehören zum Beispiel eine hohe Wahrscheinlichkeit von Signalkollisionen, ein beliebiger Grad an Knotenmobilität, eine große Knotenanzahl oder das Auftreten von Knotenausfällen. BCGC benötigen keine komplexe Initialisierung und verwenden nur einfache XOR-Operationen für Kodierung und Dekodierung. Darüber hinaus kann mit der Dekodierung bereits begonnen werden, sobald ein erstes Paket/Codewort empfangen wurde. Evaluationen mit einem eigens implementierten Netzwerksimulator sowie einem realen Testbed haben gezeigt, dass BCGC ermöglichen, Daten trotz eines unzuverlässigen Netzwerks zuverlässig zu erhalten. In Bezug auf Latenz, Durchsatz und Energieverbrauch können BCGC, je nach Bedingungen und verglichenem Verfahren, vergleichbare Ergebnisse wie bestehende Verfahren erzielen oder diese sogar deutlich übertreffen, während sie gleichzeitig robust gegenüber veränderten Bedingungen sind, eine geringe Komplexität der Knoten erlauben sowie eine frühzeitige Dekodierung ermöglichen.
4

Optimierung der Instandhaltung und Zuverlässigkeitsstruktur von Kraftwerksanlagen / Entwicklung einer Lösungsmethodik und Untersuchungen an einem Heizkraftwerk mit Druckwirbelschichtfeuerung sowie einer Gasturbinen-Baureihe / Optimisation of Power Plant Maintenance and Reliability System

Werner, Tilman 01 October 2001 (has links) (PDF)
Die vorliegende Dissertation soll einen Beitrag für die systematische Einbeziehung der technischen Faktoren Zuverlässigkeit, Verfügbarkeit und Instandhaltung (eng. Reliability, Availability, Maintainabiliy; RAM) in die Optimierung von kraftwerkstechnischen Anlagen unter den heutigen Bedingungen der Energieerzeugung liefern. Grundlegende Veränderungen hierbei innerhalb der letzten Jahre haben einen erheblichen Einfluss auf Betrieb und Instandhaltung der Kraftwerke, auf die gestellten Verfügbarkeitsanforderungen sowie auch auf das Entwicklungstempo bei der Einführung neuer Technologien bzw. Komponenten. Die Schwerpunkte der Zielstellung liegen auf folgenden Punkten: · Entwicklung einer Methodik für die systematische Einbeziehung der RAM-Faktoren in die Optimierung; · Untersuchungen zur zustandsorientierten Instandhaltung von Kraftwerksanlagen, deren Hauptkomponenten durch neue bzw. fortschrittliche Technologien gekennzeichnet sind. Die Arbeit geht von dem Ansatz aus, die Optimierung von Kraftwerken als zustandsorientierte Entscheidungsprobleme aufzufassen. Die Charakterisierung des Zustandes von Anlagen und ihrer Komponenten, und damit ihrer Funktionsfähigkeit, wird anhand von RAM-Werten durchgeführt. Dabei werden die technischen Einflüsse auf die Funktionsfähigkeit bei deren Auslegung, deren Minderung bzw. Verlust sowie ihrer Wiederherstellung analysiert und systematisiert. Ein Kernaufgabe dieser Untersuchungen war die Erschließung und Aufbereitung der relevanten Daten und Informationen, um daraus Erkenntnisse für Möglichkeiten und Potentiale der Optimierung von Zuverlässigkeitsstruktur und Instandhaltung zu gewinnen. Es werden daher insbesondere die technischen Gegebenheiten untersucht, d.h. die vorliegenden Schädigungsprozesse, die Verhältnisse zwischen Beanspruchung und Beanspruchbarkeit sowie die Planung der Instandhaltung in Bezug auf Zeitpunkt und Umfang. Die Entwicklung von theoretischen Grundlagen in Form der Kombination von Systemanalyse, Datenauswertung und Optimierungsmodell wird parallel zu praktischen Untersuchungen an Kraftwerksanlagen in Cottbus und Dresden durchgeführt. Neben den technischen Aspekten spielen hierbei auch wirtschaftliche Faktoren eine Rolle. Unsicherheitsfaktoren, welche die Möglichkeit der RAM-Optimierung stark bestimmen, sind sowohl unvollständige Informationen über die an den Komponenten wirklich auftretenden Belastungen und deren Belastbarkeit, als auch die Schwankungen dieser Größen. Für eine hinreichend genaue Zustandsbestimmung anhand der normalerweise über den Betrieb und die Instandhaltung verfügbaren Informationen der betreffenden oder anderer Anlagen, ist demnach die Reproduzierbarkeit verschiedener Aspekte (Betriebsbedingungen, Qualitätssicherung, Instandhaltungsarbeiten etc.) anzustreben. Daraus ergibt sich zwangsläufig die Notwendigkeit von Langzeituntersuchungen zu Schädigungsvorgängen und Parameteränderungen. Die konsequente Überwachung des Betriebsverhaltens ist dazu die Voraussetzung, d.h. eine gründliche Analyse und Quantifizierung des Zustandes, schädigungsbedingter Zustandsveränderungen und der Relevanz bzw. Wirkungsweise von betrieblichen Einflussfaktoren. Die Komplexität moderner Kraftwerksanlagen und der Einsatz von hoch belastbaren, aber auf Veränderungen ihrer Betriebsbedingungen sehr sensibel reagierenden Werkstoffen verlangt auf Hersteller- und Betreiberseite Kenntnis und Erkenntnis über die ursächlichen technischen Zusammenhänge, um Zuverlässigkeit und Instandhaltung nachhaltig als Optimierungspotential erschließen zu können. Deshalb wurde auch untersucht, wie der resultierende hohe Wissensbedarf durch eine entsprechenden Informationsfluss zwischen Hersteller und Betreiber bzw. zwischen den Betreibern gedeckt werden kann.
5

Chemnitzer Linux-Tage 2014

Courtenay, Mark, Kölbel, Cornelius, Lang, Jens, Luithardt, Wolfram, Zscheile, Falk, Kramer, Frederik, Schneider, Markus, Pfeifle, Kurt, Berger, Uwe, Wachtler, Axel, Findeisen, Ralf, Schöner, Axel, Lohr, Christina, Herms, Robert, Schütz, Georg, Luther, Tobias 23 April 2014 (has links) (PDF)
Der vorliegende Tagungsband beinhaltet 13 Beiträge von Referenten der Chemnitzer Linux-Tage 2014 sowie Zusammenfassungen von weiteren 78 Vorträgen und 14 Workshops. Die Beiträge umfassen das breite Spektrum der Veranstaltung, darunter Probleme von eingebetteten Systemen und vertrauliche Kommunikation.
6

Isolationszuverlässigkeit und Lebensdauermodellierung für die Gehäusekonstruktion von Halbleitersensoren

Schaller, Rainer Markus 14 January 2019 (has links)
Die vorliegende Arbeit befasst sich mit der Isolationszuverlässigkeit und Lebensdauermodellierung für die Gehäusekonstruktion von Halbleitersensoren. Bei den untersuchten Gehäusekonstruktionen handelt es sich insbesondere um Stromsensoren, die auf der Messung des Magnetfeldes eines stromdurchflossenen Leiters basieren. Dabei werden spannungsinduzierte Fehlermechanismen und ihre Auswirkung innerhalb des Sensors diskutiert und ein Lebensdauermodell für den Sensor beschrieben, das auf dem Fehlermechanismus der anodischen Oxidation basiert.:1 THEORETISCHE GRUNDLAGEN DER SENSORKONSTRUKTION 1.1 Grundlagen der Isolationskoordination 1.2 Grundlagen der Sensorkonzeption 1.3 Stand der Technik 1.4 Aufgaben für die Gehäuseentwicklung 2 SPANNUNGSINDUZIERTE FEHLERMECHANISMEN 2.1 Teilentladung 2.2 Dielektrischer Durchbruch 2.3 Chemische Umsetzung von Si 2.4 Migrationsmechanismen 2.5 Leckstrom 3 LEBENSDAUERMODELLIERUNG 3.1 Beschleunigte Alterung 3.2 Modellfunktion für die Lebensdauer 3.3 Lebensdauerkalkulationen
7

Optimierung der Instandhaltung und Zuverlässigkeitsstruktur von Kraftwerksanlagen: Entwicklung einer Lösungsmethodik und Untersuchungen an einem Heizkraftwerk mit Druckwirbelschichtfeuerung sowie einer Gasturbinen-Baureihe

Werner, Tilman 28 August 2001 (has links)
Die vorliegende Dissertation soll einen Beitrag für die systematische Einbeziehung der technischen Faktoren Zuverlässigkeit, Verfügbarkeit und Instandhaltung (eng. Reliability, Availability, Maintainabiliy; RAM) in die Optimierung von kraftwerkstechnischen Anlagen unter den heutigen Bedingungen der Energieerzeugung liefern. Grundlegende Veränderungen hierbei innerhalb der letzten Jahre haben einen erheblichen Einfluss auf Betrieb und Instandhaltung der Kraftwerke, auf die gestellten Verfügbarkeitsanforderungen sowie auch auf das Entwicklungstempo bei der Einführung neuer Technologien bzw. Komponenten. Die Schwerpunkte der Zielstellung liegen auf folgenden Punkten: · Entwicklung einer Methodik für die systematische Einbeziehung der RAM-Faktoren in die Optimierung; · Untersuchungen zur zustandsorientierten Instandhaltung von Kraftwerksanlagen, deren Hauptkomponenten durch neue bzw. fortschrittliche Technologien gekennzeichnet sind. Die Arbeit geht von dem Ansatz aus, die Optimierung von Kraftwerken als zustandsorientierte Entscheidungsprobleme aufzufassen. Die Charakterisierung des Zustandes von Anlagen und ihrer Komponenten, und damit ihrer Funktionsfähigkeit, wird anhand von RAM-Werten durchgeführt. Dabei werden die technischen Einflüsse auf die Funktionsfähigkeit bei deren Auslegung, deren Minderung bzw. Verlust sowie ihrer Wiederherstellung analysiert und systematisiert. Ein Kernaufgabe dieser Untersuchungen war die Erschließung und Aufbereitung der relevanten Daten und Informationen, um daraus Erkenntnisse für Möglichkeiten und Potentiale der Optimierung von Zuverlässigkeitsstruktur und Instandhaltung zu gewinnen. Es werden daher insbesondere die technischen Gegebenheiten untersucht, d.h. die vorliegenden Schädigungsprozesse, die Verhältnisse zwischen Beanspruchung und Beanspruchbarkeit sowie die Planung der Instandhaltung in Bezug auf Zeitpunkt und Umfang. Die Entwicklung von theoretischen Grundlagen in Form der Kombination von Systemanalyse, Datenauswertung und Optimierungsmodell wird parallel zu praktischen Untersuchungen an Kraftwerksanlagen in Cottbus und Dresden durchgeführt. Neben den technischen Aspekten spielen hierbei auch wirtschaftliche Faktoren eine Rolle. Unsicherheitsfaktoren, welche die Möglichkeit der RAM-Optimierung stark bestimmen, sind sowohl unvollständige Informationen über die an den Komponenten wirklich auftretenden Belastungen und deren Belastbarkeit, als auch die Schwankungen dieser Größen. Für eine hinreichend genaue Zustandsbestimmung anhand der normalerweise über den Betrieb und die Instandhaltung verfügbaren Informationen der betreffenden oder anderer Anlagen, ist demnach die Reproduzierbarkeit verschiedener Aspekte (Betriebsbedingungen, Qualitätssicherung, Instandhaltungsarbeiten etc.) anzustreben. Daraus ergibt sich zwangsläufig die Notwendigkeit von Langzeituntersuchungen zu Schädigungsvorgängen und Parameteränderungen. Die konsequente Überwachung des Betriebsverhaltens ist dazu die Voraussetzung, d.h. eine gründliche Analyse und Quantifizierung des Zustandes, schädigungsbedingter Zustandsveränderungen und der Relevanz bzw. Wirkungsweise von betrieblichen Einflussfaktoren. Die Komplexität moderner Kraftwerksanlagen und der Einsatz von hoch belastbaren, aber auf Veränderungen ihrer Betriebsbedingungen sehr sensibel reagierenden Werkstoffen verlangt auf Hersteller- und Betreiberseite Kenntnis und Erkenntnis über die ursächlichen technischen Zusammenhänge, um Zuverlässigkeit und Instandhaltung nachhaltig als Optimierungspotential erschließen zu können. Deshalb wurde auch untersucht, wie der resultierende hohe Wissensbedarf durch eine entsprechenden Informationsfluss zwischen Hersteller und Betreiber bzw. zwischen den Betreibern gedeckt werden kann.
8

Zuverlässigkeit von AlGaN/GaN-Leistungsbauelementen

Franke, Jörg 09 January 2023 (has links)
Zur Ermittlung der Zuverlässigkeit von leistungselektronischen Bauelementen sind eine Reihe von Testverfahren etabliert. In Lastwechseltests ist die Temperatur der dominierende Parameter für bekannte Lebensdauermodelle. Aufgrund des Aufbaus und der Eigenschaften von AlGaN/GaN-Bauelementen ist es notwendig, neue Methoden zur Temperaturbestimmung zu etablieren. Die Untersuchungen berücksichtigen dabei verschiedene Bauteilkonzepte. Dazu gehören High Electron Mobility Transistors (HEMT) mit Schottky/p-Gate, für die eine Verwendung des Gateleckstromes als temperatursensitiver elektrischer Parameter (TSEP) untersucht und zur Temperaturbestimmung empfohlen wird. Für Gate Injection Transistors (GIT) wird ein ähnlicher Ansatz verfolgt. Aufgrund der Gatestruktur dieser stromgesteuerten Bauelemente wird vorgeschlagen, den vorhandenen pn-Übergang am Gate des GIT HEMT unter Verwendung der Gate-Source-Spannung als TSEP zu nutzen. In beiden Fällen erreichen die temperatursensitiven Parameter eine Messauflösung, die mindestens der des pn-Übergangs bei Si-Bauelementen entspricht. Im Lastwechseltest bestimmt im Wesentlichen die verwendete Aufbau- und Verbindungstechnik außerhalb des diskreten Packages die mögliche Zyklenzahl. Werden SMD-Bauelemente auf PCB gelötet, dominiert die Lotverbindung zwischen Bauteil und PCB den Ausfall. Durch ein neues Aufbaukonzept mit in Module gesinterten AlGaN/GaN Packages sind Zyklenzahlen möglich, die bis Faktor 10 über dem Erwartungswert für vergleichbare Si-Bauelemente mit Standard AVT liegen.
9

Chemnitzer Linux-Tage 2013

Meier, Wilhelm, Pönisch, Jens, Berger, Uwe, Heik, Andreas, König, Harald, Kölbel, Cornelius, Loschwitz, Martin Gerhard, Wachtler, Axel, Findeisen, Ralph, Kubieziel, Jens, Seidel, Philipp, Luithardt, Wolfram, Gachet, Daniel, Schuler, Jean-Roland 04 April 2013 (has links) (PDF)
Die Chemnitzer Linux-Tage sind eine Veranstaltung rund um das Thema Open Source. Im Jahr 2013 wurden 106 Vorträge und Workshops gehalten. Der Band enthält ausführliche Beiträge zu 11 Hauptvorträgen sowie Zusammenfassungen zu 95 weiteren Vorträgen.
10

Power cycling capability of advanced packaging and interconnection technologies at high temperature swings

Amro, Raed 24 July 2006 (has links) (PDF)
This work is a contribution to the evaluation of the power cycling reliability of different packaging and interconnection solutions at high temperature swings. It provides the designer of power circuits data for module lifetime prediction especially at high operational temperatures. Failure analysis with the different microscopic techniques provide cognitions about the failure mechanisms and eventual weak points of the power devices at high thermal stresses. / Diese Arbeit liefert einen Beitrag zur Qualifizierung der Lastwechselfestigkeit von modernen Aufbau- und Verbindungstechniken bei hohen Temperaturhüben. Dadurch wird den Designern von Leistungsschaltkreisen Daten zur Abschätzung der Lebensdauer ihrer Komponente besonders unter höheren Umgebungstemperaturen zur Verfügung gestellt. Eine Ausfallanalyse mit dem Rasterelektronenmikroskop (REM) und der Ultraschallmikroskopie liefert Erkenntnisse über die zu erwartende Ausfallmechanismen und die eventuellen Schwachpunkte der Bauelemente bei hohen Temperaturen

Page generated in 0.0836 seconds