• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 29
  • 17
  • 1
  • Tagged with
  • 107
  • 69
  • 57
  • 41
  • 41
  • 41
  • 25
  • 15
  • 11
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modellbasierte Optimierung des Diamantdrahtsägeprozesses für die Fertigung von Siliziumwafern

Treyer, Daniel 30 November 2020 (has links)
In der Photovoltaikindustrie wird der Diamantdrahtsägeprozess für die Fertigung kristalliner Siliziumwafer eingesetzt. In dieser Arbeit wird ein dynamisches Modell des Drahtsägeprozesses entwickelt, das die Simulation relevanter Prozessvariablen über die Prozesszeit und über die Ausdehnung des Drahtfeldes zulässt. Den Kern der Modellierung bildet ein parametrisches Abtragmodell, das die Abtragrate in Funktion verschiedener Prozessvariablen beschreibt. Die Parameter dieses Modells werden anhand von Messdaten identifiziert. Basierend auf dem validierten Modell werden Ansätze zur Rezeptoptimierung untersucht mit dem Ziel, die Produktivität zu steigern. Abschliessend wird ein ausgewählter Ansatz aus der Rezeptoptimierung experimentell validiert. Aus der Versuchsreihe geht hervor, dass mit den entwickelten Ansätzen eine wesentliche Reduktion der Prozesszeit möglich ist.:1. Einleitung 1.1. Einordnung der Arbeit 1.2. Beschreibung des Drahtsägeprozesses mit Diamantdraht 1.3. Technisch-wissenschaftliche Zielsetzungen 1.4. Stand der Technik 1.5. Gliederung der Arbeit 2. Modellierung des Drahtsägeprozesses 2.1. Überblick und Notation 2.2. Modell für den Kontakt zwischen Draht und Siliziumbrick 2.3. Parametrisches Abtragmodell 2.4. Drahttransformationsmodelle 2.5. Rezeptmodell 2.6. Überblick über das Gesamtmodell 2.7. Implementierung in der Simulationsumgebung 3. Identifikation der Modellparameter und Modellvalidierung 3.1. Messdaten und Experimente 3.2. Methodik der Parameteridentifikation 3.3. Ergebnisse und Diskussion 4. Ansätze zur Rezeptoptimierung 4.1. Zielsetzungen und Grundlagen 4.2. Analyse der Prozessvariablen im quasistationären Zustand 4.3. Beschreibung verschiedener Methoden zur Erhöhung des Abtrages 4.4. Simulationsbasierter Vergleich verschiedener Rezepte 5. Experimentelle Validierung der Rezeptoptimierung 5.1. Überlegungen zur Planung und Durchführung der Versuche 5.2. Abgleich mit dem Simulationsmodell 5.3. Auswertung und Diskussion der Versuchsergebnisse 6. Zusammenfassung und Ausblick / In the photovoltaic industry, the diamond wire sawing process is used for the production of crystalline silicon wafers. In this thesis, a dynamic model of the wire sawing process is presented, which enables the simulation of relevant process variables over the process time and the extension of the wire web. The model comprises a parametric material removal model, which describes the removal rate as a function of different process variables. The parameters of this model are identified using experimental data. Based on the validated model, different approaches to the optimization of the recipe are analyzed with the aim of increasing the productivity of the process. Finally, a selected approach is experimentally validated. The series of experiments reveals that a substantial reduction of the process time is achievable using the developed approaches.:1. Einleitung 1.1. Einordnung der Arbeit 1.2. Beschreibung des Drahtsägeprozesses mit Diamantdraht 1.3. Technisch-wissenschaftliche Zielsetzungen 1.4. Stand der Technik 1.5. Gliederung der Arbeit 2. Modellierung des Drahtsägeprozesses 2.1. Überblick und Notation 2.2. Modell für den Kontakt zwischen Draht und Siliziumbrick 2.3. Parametrisches Abtragmodell 2.4. Drahttransformationsmodelle 2.5. Rezeptmodell 2.6. Überblick über das Gesamtmodell 2.7. Implementierung in der Simulationsumgebung 3. Identifikation der Modellparameter und Modellvalidierung 3.1. Messdaten und Experimente 3.2. Methodik der Parameteridentifikation 3.3. Ergebnisse und Diskussion 4. Ansätze zur Rezeptoptimierung 4.1. Zielsetzungen und Grundlagen 4.2. Analyse der Prozessvariablen im quasistationären Zustand 4.3. Beschreibung verschiedener Methoden zur Erhöhung des Abtrages 4.4. Simulationsbasierter Vergleich verschiedener Rezepte 5. Experimentelle Validierung der Rezeptoptimierung 5.1. Überlegungen zur Planung und Durchführung der Versuche 5.2. Abgleich mit dem Simulationsmodell 5.3. Auswertung und Diskussion der Versuchsergebnisse 6. Zusammenfassung und Ausblick
102

Die Auswirkungen der Risikopotentialanalyse auf ein Alten- und Pflegeheim als Totale Institution / The impact of the risk potential analysis on a nursing home as a Total Institution

Pöschel, Klaus 13 November 2013 (has links)
Die Auswirkungen der Risikopotentialanalyse auf ein Alten- und Pflegeheim als Totale Institution. Heutzutage gehören Alten- und Pflegeheime zu den Wohnformen im Alter, die aus unserem Alltag in Deutschland nicht mehr wegzudenken sind. Sie bieten einer ständig älter werdenden Bevölkerung ein umfassendes Angebot an Betreuungs- und Versorgungssicherheit. Da die angebotene Qualität dieser Dienstleistung zwischen einzelnen Anbietern recht unterschiedlich ausfällt, ist der Gesetzgeber seit Gründung der Pflegeversicherung bemüht, die Leistungen für die Qualität der angebotenen Pflege und Betreuung durch allgemeine Vorgaben zu sichern und zu verbessern. Dazu wurde die Pflegeprozessmethode mit einer die Pflegequalität fördernden Pflegedokumentation als Verpflichtung vorgeschrieben. In den vergangenen Jahren – bedingt durch die demografische Entwicklung, aber auch durch veränderte gesetzliche Vorgaben – hat sich die Bewohnerstruktur in Alten- und Pflegeheimen verändert. Dort nimmt der Anteil multimorbider Bewohner und solchen mit einer ausgeprägten Demenz stetig zu. Eine der Möglichkeiten, sich auf die verändernden Pflege- und Betreuungsbedürfnisse der Bewohner, wie auch die anwachsenden Anforderungen des Gesetzgebers, einzustellen, besteht darin, häufig vorkommende Bereiche der Pflege- und Betreuung als Risikopotenziale zu benennen. Mit der Methode der Risikopotenzialanalyse werden Pflegefachkräfte unterstützt, für den einzelnen Bewohner die festgelegten Risikopotenziale in ihrer Ausprägung zu erfassen, zu analysieren und zu bewerten. Unterstützt wird ein solches Vorgehen z.B. durch das RiP® Managementsystem, durch transparente Definitionen der einzelnen Risikobereiche, Kriterien zur Gewichtung und Vorschläge für mögliche Pflege- und Betreuungsmaßnahmen. Die vorliegende Studie untersucht die Einführung der Risikopotentialanalyse auf das Alten- und Pflegeheim vor dem Hintergrund des soziologischen Konzepts der Totalen Institution. In der vorliegenden hypothesenprüfenden Evaluationsstudie wurde die Wechselwirkung zwischen der Risikopotenzialanalyse als Instrument zur Systematisierung der Prozessgestaltung in einem Alten- und Pflegeheim und den Merkmalen einer Totalen Institution untersucht. Da das Forschungsfeld auf eine Einrichtung begrenzt war und um die dort gegebene Komplexität abzubilden, wurden im Sinne einer methodologischen Triangulation unterschiedliche Methoden der empirischen Sozialforschung angewandt. Es wurden Experteninterviews mit Bewohnerinnen und Bewohnern geführt und ausgewertet. Mit den Mitarbeitenden wurden sowohl Experteninterviews wie auch eine Gruppendiskussion zur Ergebnisvalidation geführt und ebenfalls ausgewertet. Als weitere Methode wurde eine empirische Inhaltsanalyse der Pflegeprozessplanungen vor und 18 Monate nach der Einführung der Risikopotenzialanalyse vorgenommen. Danach wurden in einem letzten Schritt die vorliegenden Ergebnisse zur Risikopotenzialanalyse hinsichtlich ihrer Wechselwirkung auf ein Alten- und Pflegeheim und dessen Merkmale als Totale Institution diskutiert. Als zentrales Ergebnis wurde dabei herausgearbeitet, dass es eine Wechselwirkung zwischen der Risikopotenzialanalyse als Instrument zur Prozessgestaltung in einem Alten- und Pflegeheim und dessen Merkmalen als Totale Institution gibt. Diese Wechselwirkung begründet sich zunächst in einem allumfassenden ordnungsrechtlichen Rahmen, der durch seine Anforderungen und Vorgaben eine gleichermaßen abmildernde, verstärkende und nicht zuletzt stabilisierende Wirkung auf die Merkmale des Heims als Totale Institution entfaltet. Die Risikopotenzialanalyse (RIP) selbst wirkt sich durch ihren Aufbau und ihre Struktur für die Anwendung im Pflegeprozess unterstützend auf diese Merkmale aus, denn für den einzelnen Bewohner lassen sich die täglichen Pflege- und Betreuungsmaßnahmen nun transparenter und strukturierter planen als vorher. Auf dieser Grundlage wird es dem Personal erleichtert, für die Durchführung der geplanten Maßnahmen zu sorgen. Die unterschiedlichen Pflege- und Betreuungspläne lassen sich für einen Bereich in einem einzigen rationalen Plan vereinigen, z.B. in einer Plantafel. Andererseits wirkt sich die RIP positiv auf die Wahrnehmung des einzelnen Bewohners und die schriftliche Dokumentation aus. Wurde vor der Einführung (t1) die Qualität der Pflegeprozessplanungen mit einer Gesamtnote von 3,31 bewertet, so hob sich der Notendurchschnitt 18 Monate später (t2) auf 2,45. Für Mitarbeitenden hat sich die RIP als geeignetes Analyse- und Unterstützungsinstrument für die Pflege- und Betreuungsplanung herausgestellt. Sie profitieren von der klar vorgegebenen Struktur von RIP, an der sie sich orientieren können. Das gibt ihnen Sicherheit, aber auch Klarheit für die Beschreibung und Planung der erforderlichen Pflege- und Betreuungsmaßnahmen. Wurden zum Zeitpunkt t1 nur 17 der 32 möglichen Risikobereiche eingeschätzt, so waren es zu t2 im Durchschnitt 31. Diese deutliche Verbesserung zeigt sich auch in der Bewertung der Handlungsanleitung für die geplanten Maßnahmen, die von einer Bewertung von 3,35 auf einen Mittelwert von 2,32 anstieg. Damit profitieren die Bewohner von dieser Entwicklung, auch wenn für sie der Dokumentationsaspekt neben den Erwartungen an die praktische Umsetzung keine Rolle spielt. Darüber hinaus profitieren die Bewohner indirekt davon, dass durch eine risikoorientierte Sichtweise des Personals die Wahrnehmung der Bewohner systematischer und damit individueller geworden ist. Wurden anfänglich nur 53% der Risikopotenziale erfasst und eingeschätzt, stieg der Wert bei der zweiten Messung auf insgesamt 97% an. Wurden zu t1 durchschnittlich 2,27 Pflegesymptome mit 4,51 Ressourcen beschrieben, so stieg als Zeichen der individuelleren Wahrnehmung der Wert zu t2 im Durchschnitt auf 3,77 Pflegesymptome und 5,17 Ressourcen an. Diese individuellere Wahrnehmung der Bewohner nützt den Mitarbeitenden und den Bewohnern gleichermaßen. Die Mitarbeitenden profitieren von einer verbesserten Dokumentation dahingehend, dass ihnen nun individuellere Informationen ihrer Bewohner zur Verfügung stehen. Aber die Entscheidung, ob und welche Pflege- und Betreuungsmaßnahmen die Pflegekraft für den Pflegekontakt nutzt, fällt hingegen erst im situativen Erleben des Bewohners. Die Bewohner selbst nehmen die Bemühungen der Mitarbeitenden wahr und verlassen sich auf deren Expertise und Erfahrung. Das tun sie aus der Beobachtung heraus, dass das Personal auch dann individuell angemessene Entscheidungen für Pflege- und Betreuung trifft, wenn sie selbst dazu nicht mehr in der Lage sind.
103

Entwicklung und Validierung einer Simulationsbasis zum Test von Reglern raumlufttechnischer Anlagen

Le, Huu-Thoi 11 February 2004 (has links)
Heutzutage gewinnt die Simulation von Gebäuden und Anlagen zunehmend an Bedeutung, um die Betriebsweise der Anlagen zu diagnostizieren bzw. zu bewerten und den Energiebedarf vorherzusagen. Dabei hängt die erzielte Genauigkeit von dem Kompliziertheitsgrad des angewendeten Simulationsprogramms ab. Deshalb ist Modellbildung und -validierung ein sehr wichtiger Bestandteil eines Softwareentwicklungsprozesses, um die Zuverlässigkeit zu sichern. Am Institut für Thermodynamik und Technische Gebäudeausrüstung liegen zahlreiche Simulationsmodelle vor. Im Rahmen dieser vorliegenden Arbeit wurden weitere benötigte Modelle (hygrisches Verhalten der Wände (vereinfachtes Verfahren), Rippenrohrwärmeüberträger, Wärmeregenerator et al.) entwickelt und in das Programm TRNSYS eingefügt sowie die vorhandenen Modelle an ihre Genauigkeit angepasst. Insbesondere sind dies die Modelle für Splitsysteme bei stetiger und nichtstetiger Regelung mit der detaillierten Betrachtung des Anlagenverhaltens sowohl beim Voll- als auch beim Teillastbetrieb. Damit ist es erstmals gelungen, das gesamte Anlagensystem der Splittechnik ausführlich zu beschreiben. Um die analytische Validierung durchführen zu können, wurden die analytischen Modelle für eine Splitanlage bei stetiger und nichtstetiger Regelung unter den vordefinierten Randbedingungen entwickelt. Zur analytischen Validierung finden auch die vorhandenen Simulationsmodelle Anwendung, so dass sich die meisten Komponenten und das Simulationsprogramm TRNSYS verifizieren ließen. Diese Validierung erfolgte im Rahmen des IEA-SHC/HVAC BESTEST TASK 22. Da an diesem TASK verschiedene Forschungsinstitutionen mit jeweils unterschiedlichen Simulationsprogrammen teilnahmen, ergab sich die beste Möglichkeit, vergleichende Tests durchzuführen. Wenn dabei ein Programm signifikante Unterschiede zu den anderen liefert, liegt dies nicht immer an Programmfehlern. Aber kollektive Erfahrungen aus diesem TASK zeigen, dass bei Abweichungen meistens Fehler bzw. fragwürdige Algorithmen gefunden wurden. Nachdem das Simulationsprogramm TRNSYS validiert war, erfolgte die Erstellung eines Konzeptes zur Fehlererkennung und Diagnose der Regelstrategien von RLTA. Das Verfahren erlaubt sowohl die Beseitigung der möglichen Fehler in der Planungsphase beim Entwurf der Regelstrategien als auch den Test der vorhandenen Regelstrategien. Dies erhöht die Zuverlässigkeit und damit die Sicherheit beim Anlagenbetrieb. Schließlich dient das Verfahren als Werkzeug zur Optimierung der Betriebsweise von RLTA. Das Regelverhalten wurde anhand typischer Fälle vorgestellt und diskutiert. Mit Hilfe des Verfahrens zur Fehlererkennung und Diagnose der Betriebsweise von RLTA ließen sich vorhandene Regelstrategien testen und verbessern.
104

Erfassung, Analyse und Modellierung des Wurzelwachstums von Weizen (Triticum aestivum L.) unter Berücksichtigung der räumlichen Heterogenität der Pedosphäre

Schulte-Eickholt, Anna 02 August 2010 (has links)
Das Wurzelwachstum von Winterweizen wurde erfasst und modelliert, um teilflächenspezifisches Boden- und Düngemanagement zu verbessern. Die Variation von Wurzellängendichten im Feld wurde über zwei Vegetationsperioden hinweg an zwei unterschiedlichen Standorten in Ostdeutschland untersucht. Zur Auswertungserleichterung der hohen Anzahl an Wurzelproben, wurde eine halbautomatische Methode zur Bildanalyse von Wurzeln entwickelt. Der Einfluss von Änderungen bezüglich Bodenwasserstatus und Bodendichte bzw. Durchdringungswiderstand auf das Wurzelwachstum wurde untersucht. Die erhobenen Felddaten dienten gleichzeitig dazu, die Bodenwasser- und Wurzelwachstumsberechnung des Modells CERES-Wheat zu validieren. Das Modell simulierte die unterschiedlichen Bodeneigenschaften sowie die Wurzellängendichten und Bodenwassergehalte nur unzureichend. Der Effekt von Änderungen der Niederschlagsmengen auf die Simulationen von Wurzellängendichten und Bodenwassergehalten wurde anhand einer Unsicherheitsanalyse getestet und war extrem gering. Des Weiteren wurde eine Methode für praktische Zwecke entwickelt, mit der die Generierung von räumlich hoch aufgelösten Bodeninformationen unter Verwendung limitierter Eingangsdaten möglich ist. Die Modellkalkulationen basieren auf der Dempster-Shafer-Theorie. Anhand von multitemporal und multimodal erfassten Bodenleitfähigkeitsdaten, die Eingangsdaten für den Modellansatz sind, wurden Bodentypen und Texturklassen bestimmt. Das Modell generiert eine digitale Bodenkarte, die flächenhafte Informationen über Bodentypen und Bodeneigenschaften enthält. Die Validation der Bodenkarte mit zusätzlich erhobenen Bodeninformationen ergab gute bis sehr gute Ergebnisse. / Winter wheat root growth was measured and modelled to improve site-specific soil and fertilizer management in commercial wheat fields. Field variations in root length densities were analysed at two contrasting sites in East-Germany during two vegetation seasons. A semi-automated root analysing method was developed to facilitate analyses of large numbers of samples. Influences of variations in soil water states, bulk densities and penetration resistances on spatial distributions of roots were quantified. Differences in soil characteristics were large between the two sites and affected root growth considerably. The same field data was used for validating the soil moisture and root growth calculations of the widely applied growth model CERES-Wheat. Simulations of root length densities, soil physical properties and soil water contents were inadequate. The effects of changes of rainfall variabilities on simulated root length densities and soil water contents were tested by uncertainty analysis but were negligible low. A methodology for generating soil information for practical management purposes at a high degree of spatial resolution using limited input information was developed. The corresponding model calculations were carried out based on the Dempster and Shafer theorem. Soil types and texture classes were determined with multimodally and multitemporally captured data of soil electrical conductivities which are required input data of the new model approach. The model generates a digital map with extensive information of spatial variations in soil properties. The validation of the generated soil map with soil data from independent measurements yielded close correlation between measured and calculated values.
105

Design of Optimized Broadband Excitation Signals for Consistent Impedance Spectroscopy Measurements

Kallel, Ahmed Yahia 28 October 2024 (has links)
For consistent electrochemical impedance spectroscopy (EIS) measurements, several important conditions must be met. The measurements should be made in a linear region of the characteristic of the Device Under Test (DUT), which should be kept causal and stable throughout the measurement time. Violation of these conditions requires extensive special signal processing or can invalidate the entire measurement. As the measurement procedure consists of applying an excitation signal and measuring the response signal, the excitation signal plays a critical role in the quality of the measurement. It should have a small amplitude to meet the linearity and stability conditions while maintaining a sufficient signal-to-noise ratio. This is particularly important for electrochemical systems, which change their state during long measurement times for low frequency excitations. Multi-frequency signals, such as multisine signals, outperform sine-sweep signals in meeting these conditions because they include multiple frequencies within the same signal and can, therefore, significantly reduce measurement time. These signals must be optimized to ensure that the amplitude remains within the linearity range and that the signal power density per frequency is maximized. Until now, optimization procedures have been performed primarily for the requirements of specific applications, resulting in the lack of a universal methodology. In this thesis, we propose, for the first time, a novel methodology for designing multisine signals, reducing measurement time, maximizing the excitation signal power, maintaining the linearity range, and thereby ensuring system stability even at low frequencies in the mHz range. Within a comprehensive approach, various aspects are considered, such as optimizing the frequency selection, reducing the signal duration, and maintaining the linearity range. To evaluate the consistency of measured impedance spectra, we propose a novel method based on the regularized linear Kramers-Kronig (rLKK), which is robust to distortions and noise. Three novel phase optimization methods have been developed, tailored to the desired frequency density at low frequencies and the specific characteristics of the DUT. First, a combined metaheuristic gradient solution based on Role-Playing Game Theory has been developed. The advantage of this method is that it is able to search the optimum globally and is independent of the initial phase. In the second method, the optimization of the crest factor was realized based on a transformation by the generalized sigmoid function to limit the signal to the linear range, followed by clipping to eliminate the remaining peaks. Compared to common methods that rely solely on clipping, the sigmoid function offers a significant advantage. It acts as a variable multiplier, emphasizing values closer to the peaks while keeping the signal within the linear range. The third method uses a two-phase optimization approach. The first phase minimizes the peaks of battery charge variation to improve stability during the measurement. However, this can increase the crest factor of the excitation signal. The second phase minimizes the crest factor of the signal. Moreover, a stabilization method is proposed for electrochemical systems with strong transient behavior. This method involves including a dummy injection interval and considering multiple periods of the excitation signal. The determination of suitable stabilization time and the number of periods has been achieved through the use of the rLKK. The experimental validation was conducted on a lithium-ion battery cell and on bioimpedance spectroscopy, employing the Cole-Cole model. In the case of lithium-ion battery cells, it was demonstrated that the proposed excitation signals enable accurate and stable impedance measurement of the charge transfer and diffusion processes, which are critical for determining battery state of health and state of charge. With a signal duration of 100 s, six frequencies per decade, and a frequency range of 10 mHz to 1 kHz, the resulting impedance spectrum demonstrates an RMS rLKK deviation of 216 ppm. Compared to traditional sine sweep methods, it exhibits an RMS deviation of 0.02% in impedance spectra, which is a tenfold improvement over the 0.28% deviation reported in the literature. This approach achieves measurements from 3 to 9 times faster than conventional techniques with comparable accuracy. The addition of the proposed stabilization minimizes the rLKK deviation to 84 ppm, but adds 200 s to the measurement time. In the case of bioimpedance spectroscopy for measurements at six frequencies per decade in the frequency range 5 kHz to 500 kHz, the signal duration is 0.39 ms, and the total measurement time on an STM32 microcontroller is 1.53 seconds, with a maximum impedance deviation of 0.56 percent. This is at least 19 times faster than previous works and 2.67 times more accurate, as well as more robust to noise. / Für konsistente elektrochemische Impedanzspektroskopie (EIS) messungen müssen einige wichtige Bedingungen erfüllt sein. Die Messungen sollten in einem linearen Bereich der Kennlinie des Device-Under-Tests (DUT) durchgeführt werden, der kausal und über die Messzeit hinweg stabil gehalten werden sollte. Ein Verstoß gegen diese Bedingungen erfordert eine umfangreiche spezielle Signalverarbeitung oder kann die gesamte Messung ungültig machen. Das Messverfahren besteht darin, ein Anregungssignal anzulegen und das Antwortsignal zu messen. Daher spielt das Anregungssignal eine entscheidende Rolle für die Qualität der Messung. Es muss eine kleine Amplitude haben, um die Linearitäts- und Stabilitätsbedingungen zu erfüllen, und gleichzeitig ein ausreichendes Signal-Rausch-Verhältnis aufweisen. Dies ist besonders wichtig für elektrochemische Systeme, die ihren Zustand während langen Messzeiten und insbesondere bei niedrigen Frequenzen ändern. Mehrfrequenzsignale, wie z. B. Multisinus-Signale, erfüllen diese Bedingungen besser als Sinus-Sweep-Signale, da sie mehrere Frequenzen gleichzeitig in einem Signal kombinieren und dadurch die Messzeit erheblich verkürzen können. Diese Signale müssen optimiert werden, um sicherzustellen, dass die Amplitude innerhalb des Linearitätsbereichs bleibt und die Signalleistungsdichte pro Frequenz maximiert wird. Bisher wurden Signaloptimierungsverfahren hauptsächlich für die Anforderungen spezifischer Anwendungen durchgeführt, so dass keine verallgemeinerte Methodik vorgeschlagen werden konnte. In dieser Arbeit wird zum ersten Mal eine neuartige Methodik für den Entwurf von Multisinus-Signalen vorgeschlagen, die die Messzeit reduzieren, die Signalleistungsdichte des Anregungssignals maximieren, den Linearitätsbereich beibehälten und damit die Systemstabilität auch bei niedrigen Frequenzen im mHz-Bereich gewährleisteten. In einem umfassenden Ansatz berücksichtigen wir mehrere Aspekte, wie die Optimierung der Frequenzauswahl, die Verringerung der Signaldauer und die Einhaltung des Linearitätsbereichs. Um die Konsistenz der gemessenen Impedanzspektren zu bewerten, schlagen wir eine neuartige Methode vor, die auf der regularisierten linearen Kramers-Kronig-Methode (rLKK) basiert und gegenüber Verzerrungen und Rauschen robust ist. Es wurden drei neuartige Phasenoptimierungsverfahren entwickelt, die auf die gewünschte Frequenzdichte bei niedrigen Frequenzen und die spezifischen Eigenschaften des DUT zugeschnitten sind. Zunächst wurde eine kombinierte metaheuristische Gradientenlösung auf der Grundlage der Rollenspieltheorie entwickelt. Der Vorteil dieser Methode ist, dass sie in der Lage ist, das Optimum global zu suchen, und dass sie unabhängig von der Anfangsphase ist. In der zweiten Methode wurde die Crest-Faktor-Optimierung auf der Grundlage einer Transformation durch die verallgemeinerte Sigmoid-Funktion realisiert, um das Signal auf den linearen Bereich zu begrenzen, gefolgt von Clipping, um die verbleibenden Peaks zu eliminieren. Im Vergleich zu herkömmlichen Methoden, die ausschließlich auf Clipping beruhen, bietet die Sigmoidfunktion einen wesentlichen Vorteil. Sie wirkt wie ein variabler Multiplikator, der die Werte in der Nähe der Spitzenwerte hervorhebt, während das Signal innerhalb des linearen Bereichs bleibt. Die dritte Methode verwendet einen zweiphasigen Optimierungsansatz. In der ersten Phase werden die Spitzen der Batterieladungsschwankungen minimiert, um die Stabilität der Messung zu verbessern. Dies kann jedoch den Crest-Faktor des Anregungssignals erhöhen. In der zweiten Phase wird der Crest-Faktor des Signals minimiert. Darüber hinaus wird für elektrochemische Systeme mit starkem Einschwingverhalten eine Stabilisierungsmethode vorgeschlagen, die ein Dummy-Injektionsintervall einschließt und mehrere Perioden des Anregungssignals berücksichtigt. Zur Bestimmung der geeigneten Stabilisierungszeit und der Anzahl der Perioden wurde die rLKK verwendet. Die experimentelle Validierung wurde an einer Lithium-Ionen-Batteriezelle und an der Bioimpedanzspektroskopie unter Verwendung des Cole-Cole-Modells durchgeführt. Im Fall von Lithium-Ionen-Batteriezellen wurde gezeigt, dass die vorgeschlagenen Anregungssignale eine genaue und stabile Impedanzmessung der Ladungstransfer- und Diffusionsprozesse ermöglichen, die für die Bestimmung des Batteriegesundheits- und Ladezustands entscheidend sind. Bei einer Signaldauer von 100 s, sechs Frequenzen pro Dekade und einem Frequenzbereich von 10 mHz bis 1 kHz weist das resultierende Impedanzspektrum eine RMS rLKK-Abweichung von 216 ppm auf. Im Vergleich zu herkömmlichen Sinus-Sweep-Methoden weist es eine RMS-Abweichung von 0,02% in Impedanzspektren auf, was eine zehnfache Verbesserung gegenüber der in der Literatur angegebenen Abweichung von 0,28% darstellt. Mit diesem Ansatz lassen sich Messungen 3 bis 9 Mal schneller als mit herkömmlichen Techniken durchführen, bei vergleichbarer Genauigkeit. Der Zusatz der vorgeschlagenen Stabilisierung minimiert die rLKK-Abweichung auf 84 ppm, verlängert aber die Messzeit um 200 s. Im Falle der Bei der Bioimpedanzspektroskopie für Messungen bei sechs Frequenzen pro Dekade im Frequenzbereich von 5 kHz bis 500 kHz beträgt die Signaldauer 0,39 ms, und die Gesamtmesszeit auf dem STM32 betrug 1,53 Sekunden, bei einer maximalen Impedanzabweichung von 0,56 Prozent. Dies ist mindestens 19-mal schneller als frühere Arbeiten und 2,67-mal genauer sowie robuster gegenüber Rauschen.
106

Methodenentwicklung zur Simulation von Strömungen mit freier Oberfläche unter dem Einfluss elektromagnetischer Wechselfelder

Beckstein, Pascal 16 February 2018 (has links) (PDF)
Im Bereich der industriellen Metallurgie und Kristallzüchtung treten bei zahlreichen Anwendungen, wo magnetische Wechselfelder zur induktiven Beeinflussung von leitfähigen Werkstoffen eingesetzt werden, auch Strömungen mit freier Oberfläche auf. Das Anwendungsspektrum reicht dabei vom einfachen Aufschmelzen eines Metalls in einem offenen Tiegel bis hin zur vollständigen Levitation. Auch der sogenannte RGS-Prozess, ein substratbasiertes Kristallisationsverfahren zur Herstellung siliziumbasierter Dünnschichtmaterialien, ist dafür ein Beispiel. Um bei solchen Prozessen die Interaktion von Magnetfeld und Strömung zu untersuchen, ist die numerische Simulationen ein wertvolles Hilfsmittel. Für beliebige dreidimensionale Probleme werden entsprechende Berechnungen bisher durch eine externe Kopplung kommerzieller Programme realisiert, die für Magnetfeld und Strömung jeweils unterschiedliche numerische Techniken nutzen. Diese Vorgehensweise ist jedoch im Allgemeinen mit unnötigem Rechenaufwand verbunden. In dieser Arbeit wird ein neu entwickelter Methodenapparat auf Basis der FVM vorgestellt, mit welchem sich diese Art von Berechnungen effizient durchführen lassen. Mit der Implementierung dieser Methoden in foam-extend, einer erweiterten Version der quelloffenen Software OpenFOAM, ist daraus ein leistungsfähiges Werkzeug in Form einer freien Simulationsplattform entstanden, welches sich durch einen modularen Aufbau leicht erweitern lässt. Mit dieser Plattform wurden in foam-extend auch erstmalig dreidimensionale Induktionsprozesse im Frequenzraum gelöst.
107

Methodenentwicklung zur Simulation von Strömungen mit freier Oberfläche unter dem Einfluss elektromagnetischer Wechselfelder

Beckstein, Pascal 08 January 2018 (has links)
Im Bereich der industriellen Metallurgie und Kristallzüchtung treten bei zahlreichen Anwendungen, wo magnetische Wechselfelder zur induktiven Beeinflussung von leitfähigen Werkstoffen eingesetzt werden, auch Strömungen mit freier Oberfläche auf. Das Anwendungsspektrum reicht dabei vom einfachen Aufschmelzen eines Metalls in einem offenen Tiegel bis hin zur vollständigen Levitation. Auch der sogenannte RGS-Prozess, ein substratbasiertes Kristallisationsverfahren zur Herstellung siliziumbasierter Dünnschichtmaterialien, ist dafür ein Beispiel. Um bei solchen Prozessen die Interaktion von Magnetfeld und Strömung zu untersuchen, ist die numerische Simulationen ein wertvolles Hilfsmittel. Für beliebige dreidimensionale Probleme werden entsprechende Berechnungen bisher durch eine externe Kopplung kommerzieller Programme realisiert, die für Magnetfeld und Strömung jeweils unterschiedliche numerische Techniken nutzen. Diese Vorgehensweise ist jedoch im Allgemeinen mit unnötigem Rechenaufwand verbunden. In dieser Arbeit wird ein neu entwickelter Methodenapparat auf Basis der FVM vorgestellt, mit welchem sich diese Art von Berechnungen effizient durchführen lassen. Mit der Implementierung dieser Methoden in foam-extend, einer erweiterten Version der quelloffenen Software OpenFOAM, ist daraus ein leistungsfähiges Werkzeug in Form einer freien Simulationsplattform entstanden, welches sich durch einen modularen Aufbau leicht erweitern lässt. Mit dieser Plattform wurden in foam-extend auch erstmalig dreidimensionale Induktionsprozesse im Frequenzraum gelöst.

Page generated in 0.0602 seconds