Spelling suggestions: "subject:"metz"" "subject:"netz""
391 |
Verteilte Datensicherung unter Nutzung von Peer-to-Peer-KonzeptenKrause, Christian 14 November 2002 (has links)
Diese Arbeit beschreibt ein Konzept für eine verteilte Datensicherung unter Nutzung freier Ressourcen von Arbeitsplatzrechnern. Das vorzustellende System beinhaltet entsprechende Maßnahmen, um sowohl die Authentizität und Vertraulichkeit der zu sichernden Daten zu gewährleisten, als auch eine möglichst hohe Wahrscheinlichkeit für die Wiederherstellung zu erreichen.
|
392 |
Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-SimulatorsSeifert, Christin, Parthey, Jan 06 June 2003 (has links)
Rekursive Auto-Assoziative Speicher (RAAM) sind spezielle Neuronale Netze (NN),
die in der Lage sind, hierarchiche Strukturen zu verarbeiten. Bei der
Simulation dieser Netze gibt es einige Besonderheiten, wie z.B. die dynamische
Trainingsmenge, zu beachten. In der Arbeit werden diese und die daraus
resultierenden angepassten Lernalgorithmen erörtert. Außerdem wird ein
normaler Backpropagation-Simulator (Xerion) um die Fähigkeiten für die
Simulation von RAAMs erweitert.
|
393 |
Entwicklung und Validierung eines Messverfahrens zur Bestimmung der Geruchsausbreitung im bodennahen BereichRoßmann, Thomas 28 June 2004 (has links)
Entwicklung und Validierung eines Messverfahrens zur Bestimmung der Geruchsausbreitung im bodennahen Bereich, Entwicklung einer künstlichen Nase, Nutzung von künstlich-neuronalen Netze (Kohonen- und MLP-Netze), Ausbreitungsrechnung beruhend auf ein Erweitertes Zellenmodell mit Platzwechselwahrscheinlichkeit (EZEMP), Gauß-Modelle sowie durch das CFD-Programm FLUENT, Beispielrechnungen für realitätsnahe Ausbreitungen in der Atmosphäre und Nachrechnungen von Untersuchungen an einem Versuchsstand, Beschreibung eines Messverfahrens
|
394 |
Ein einfaches Auswerteverfahren für Laue-Aufnahmen von beliebig orientierten EinkristallenHecht, Günther, Kupfer, Hartmut 28 January 2010 (has links)
Die manuelle Auswertung von Laue-Aufnahmen mittels der stereographischen Projektion im Wulffschen Netz stößt bei hochindizierten Orientierungen auf erhebliche Schwierigkeiten.
Es wird eine einfache Kugelmethode beschrieben, die es gestattet, mit Hilfe des Greeninger Netzes jedes beliebig orientierte Lauebeugungsdiagramm in kurzer Zeit auszuwerten.
|
395 |
Algorithmische Optimierung von Teststrukturen zur Charakterisierung von Mikrosystemen auf WaferebeneStreit, Petra 04 April 2009 (has links)
Diese Diplomarbeit beschäftigt sich mit der Entwicklung von Teststrukturen zur
Charakterisierung von Mikrosystemen auf Waferebene. Sie dienen zur Bestimmung
von Prozesstoleranzen. Ziel dieser Arbeit ist es, einen Algorithmus zu entwickeln,
mit dem Teststrukturen optimiert werden können. Dazu wird ein Ansatz zur Optimierung
von Teststrukturen mittels eines Genetischen Algorithmus untersucht.
Grundlage für diesen ist eine Bewertung der Strukturen hinsichtlich der Sensitivität
gegenüber den Fertigungsparametern und der Messbarkeit der Eigenmoden.
Dem Leser wird zuerst ein Einblick in das Themengebiet und in die Verwendung von
Teststrukturen gegeben. Es folgen Grundlagen zur Fertigung und Messung von Mikrosystemen,
zur Parameteridentifikation, sowie zu Optimierungsalgorithmen. Anschließend
wird ein Bewertungs- und Optimierungskonzept, sowie eine Softwareimplementation
für die sich aus der Optmierung ergebenden Aufgaben, vorgestellt.
Unter anderem eine Eigenmodenerkennung mittels Neuronalem Netz und einer auf
der Vandermond’schen Matrix basierende Datenregression. Die Ergebnisse aus der
Umsetzung durch ein Testframework werden abschließend erläutert. Es wird gezeigt,
dass die Optimierung von Teststrukturen mittels Genetischem Algorithmus
möglich ist. Die dargestellte Bewertung liefert für die untersuchten Teststrukturen
nachvollziehbare Resultate. Sie ist in der vorliegenden Form allerdings auf Grund
zu grober Differenzierung nicht für den Genetischen Algorithmus geeignet. Entsprechende
Verbesserungsmöglichkeiten werden gegeben. / This diploma thesis deals with the development of test-structures for the characterization
of microsystems on wafer level. Test-structures are used for the determination
of geometrical parameters and material properties deviations which are
influenced by microsystem fabrication prozesses. The aim of this work is to establish
principles for the optimization of the test-structures. A genetic algorithm as
an approach for optimization is investigated in detail. The reader will get an insight
in the topic and the application of test-structures. Fundamentals of fabrication and
measurement methods of microsystems, the parameter identification procedure and
algorithms for optimization follow. The procedures and a corresponding software
implementation of some applied issues, which are needed for the optimization of
test structures, are presented. Among them are neural network algorithms for mode
identification and a data regression algorithm, based on Vandermonde Matrix.
Results of implemented software algorithms and an outlook conclude this work. It
is shown, that the optimization of test-structure using a genetic algorithm is possible.
An automated parameter variation procedure and the extraction of important
test-structures parameters like sensitivity and mode order are working properly.
However, the presented evaluation is not suitable for the genetic algorithm in the
presented form. Hence, improvements of evaluation procedure are suggested.
|
396 |
Contribution to quality and process optimisation in continuous casting using mathematical modellingBouhouche, Salah 28 November 2002 (has links)
Mathematical modelling using advanced approach based on the neural networks has been applied to the control and the quality optimisation in the main processes of steelwork such as the ladle metallurgical treatment and continuous casting. Particular importance has been given to the improvement of breakout prediction system and the reduction in the rate of false alarm generated by the conventional breakout detection system. Prediction of the chemical composition and temperature of liquid steel in the ladle has been achieved by neural networks and linear model. This prediction can be considered as a soft sensor. Slab surface temperature stabilisation on the basis of the casting events has been controlled by a neural networks algorithm, that gives an improvement in the surface temperature fluctuation in comparison to the conventional control system which is based on the PID controller. Quality monitoring and classification is also achieved by a neural network which is related to the breakout detection system. This technique achieves a classification of different defects based on the different alarm signal given by the breakout prediction system. Fault detection and process monitoring is developed using neural networks modelling. All models are developed on basis of practical operating database obtained from the iron and steel industry.
|
397 |
Neuronale Netze als Modell Boolescher FunktionenKohut, Roman 30 May 2007 (has links)
In der vorliegenden Arbeit werden die Darstellungsmöglichkeiten Boolescher Funktionen durch Neuronale Netze untersucht und eine neue Art von Booleschen Neuronalen Netzen (BNN) entwickelt. Das Basiselement Boolescher Neuronaler Netze ist ein neuartiges Boolesches Neuron (BN), das im Gegensatz zum klassischen Neuron direkt mit Booleschen Signalen operiert und dafür ausschließlich Boolesche Operationen benutzt. Für das Training der BNN wurde ein sequentieller Algorithmus erarbeitet, der eine schnelle Konvergenz garantiert und somit eine kurze Trainingzeit benötigt. Dieser Trainingsalgorithmus bildet die Grundlage eines neuen geschaffenen Verfahrens zur Architektursynthese der BNN. Das entwickelte Training stellt darüber hinaus ein spezielles Dekompositionsverfahren Boolescher Funktionen dar. Neuronale Netze können sowohl in Software als auch in Hardware realisiert werden. Der sehr hohe Aufwand der Hardware-Realisierung üblicher Neuronaler Netze wurde durch die Verwendung von BN und BNN wesentlich vereinfacht. Die Anzahl erforderlicher CLBs (configurable logic blocks) zur Realisierung eines Neurons wurde um 2 Größenordnungen verringert. Ein Boolesches Neuron wird direkt auf eine einzige LUT (lookup table) abgebildet. Für diese sehr kompakte Abbildung der BNN in eine FPGA-Struktur wurde der Trainingsalgorithmus des BNN angepasst. Durch die Spezifikation der BNN mit UML-Modellen und die Anwendung der MDA-Technologie zum Hardware/Software-Codesign konnte der Syntheseaufwand für Hardware-Realisierung von BNN signifikant verringert werden.
|
398 |
Red - Flag - Bericht : 10 % EV-Neuzulassungen: Arbeitsgruppe 5 : Verknüpfung der Verkehrs- und Energienetze, Sektorkopplung: Bericht März 2019Bundesministerium für Verkehr und digitale Infrastruktur 24 May 2023 (has links)
Aktuell ist die Energiewirtschaft im Bereich Elektromobilität gut aufgestellt und bietet für die heute zugelassenen Elektrofahrzeuge ein ausreichendes Ladenetz. Mit einem deutlichen Anstieg am Anteil der Neuzulassungen gibt es für Teile des Stromnetzes, aber insbesondere im
Bereich der öffentlichen und privaten Ladeinfrastruktur, Handlungsfelder, die aufgrund teils erheblicher Vorlaufzeiten zeitnah angegangen werden müssen. Die Erzeugung von Strom aus erneuerbaren Energien wird auch mit dynamischeren Zuwachsraten keinen Engpass
darstellen. Beim Netz hingegen sind in Ballungsgebieten bei konzentrierten Zuwächsen durchaus lokale Engpässe möglich, die eine Einzelbetrachtung notwendig machen. Für Netzbetreiber ist ausschlaggebend, wie viele Elektrofahrzeuge in einem Netzstrang gleichzeitig
und mit hoher Leistung laden werden. Um zudem vorhandene Netze optimal nutzen zu können, empfiehlt eine Metastudie von BDEW und VDE/FNN, die aktuelle Netzauslastung perspektivisch zu überwachen und neue sowie bereits bestehende Möglichkeiten zum Lastmanagement
zu nutzen. Hier sollte sichergestellt werden, dass der freie Wettbewerb der Flexibilitätsoptionen nicht durch einen zu engen Regulierungsrahmen behindert wird. Die Ausrüstung der Ladeinfrastruktur mit Steuerungs- und Kommunikationseinrichtungen ist perspektivisch
zwingend erforderlich. Um kommunikative und technische Herausforderungen beherrschbar zu halten, ist eine schnellstmögliche verbindliche Vorgabe zur Sicherstellung der Steuerungsfähigkeit notwendig. Akuter Handlungsbedarf stellt sich im Bereich der öffentlichen wie privaten Ladeinfrastruktur. In urbanen Gebieten sind u. a. aufgrund der begrenzten Flächenverfügbarkeit Alternativen zu den aktuellen Ladestationen
erforderlich, die neben hohen Investitionskosten städtebaulich nicht verträglich für eine anstehende Massenelektrifizierung sind. Existierende Alternativen für den privaten und öffentlichen Raum, die das Potenzial haben, Kosten zu senken und optimierte energiewirtschaftliche Konzepte zu vermarkten, drohen jedoch durch einen zu engen Regulierungsrahmen für Hardware und energiewirtschaftliche Produkte unattraktiv zu werden. Auch Genehmigungsverfahren bei Kommunen und Anmeldeprozesse bei Netzbetreibern gilt es zu harmonisieren und zu beschleunigen, da der weitere Infrastrukturausbau dadurch erheblich gebremst wird. Mieter in Mehrfamilienhäusern und Wohnungseigentümer
haben rechtlich oft noch keine Möglichkeit, eine eigene private Ladestation an ihrem Stellplatz zu installieren. Hier ist eine zeitnahe Anpassung des WEG dringend geboten.:1 Executive Summary
2 Ausgangslage und Zielsetzung
3 Hypothese und angenommene Wirkung
4 Kurzanalyse und Bewertung
4.1 Erzeugung
4.2 Netz
4.3 Öffentliche Ladeinfrastruktur
4.4 Private Ladeinfrastruktur
Impressum
|
399 |
Erstellung eines genregulatorischen Netzwerkes zur Simulation der Entstehung von Zahnhartsubstanz / Construction of a gene regulatory network to simulate the formation of dental hard tissueThelen, David January 2020 (has links) (PDF)
In this dissertation, the author describes the creation of a basic bioinformatic model of human enamel maturation. Supported by the interactions found in the KEGG Pathway database, we were able to establish a gene regulatory network (GRN) that focuses primarily on the signal transduction pathways apoptosis, cell cycle, hedgehog signaling pathway, MAP kinase pathway, mTOR signaling pathway, Notch signaling pathway, TGF-β signaling pathway and Wnt signaling pathway. We extended this through further verified interactions and implicated the tooth-specific genes AMELX, AMELY, AMBN, ENAM and DSPP. In the subsequent simulation of the network by the simulation tool Jimena, six stable states could be identified. These are examined in more detail and juxtaposed with results of a GEO dataset. The long-term goal is to draw conclusions about the odontogenesis of humans through consistent optimization of the bioinformatics network. / In dieser Dissertation beschreibt der Autor die Erstellung eines grundlegenden bioinformatischen Modelles der menschlichen Zahnschmelzreifung. Mithilfe der KEGG Pathway-Datenbank wurde ein genregulatorisches Netzwerk (GRN) erstellt, welches maßgeblich auf den Signaltransduktionswegen Apoptose, Zellzyklus, Hedgehog-Signalweg, MAP-Kinase-Weg, mTOR-Signalweg Notch-Signalweg Signalweg, TGF-β-Signalweg und Wnt-Signalweg basiert. Im Weiteren wurde dieses Netzwerk durch zahlreiche verifizierte Wechselwirkungen erweitert und die zahnspezifischen Gene AMELX, AMELY, AMBN, ENAM und DSPP implementiert. In der anschließenden Simulation des Netzwerks mit dem Simulations-Tool Jimena konnten sechs stabile Zustände identifiziert werden. Diese wurden genauer untersucht und den Erkenntnissen eines GEO-Datensatzes gegenübergestellt. Langfristiges Ziel ist es, durch konsequente Optimierung des bioinformatischen Netzwerks Rückschlüsse auf die Odontogenese des Menschen zu ziehen.
|
400 |
Deep Learning for Geospatial Environmental Regression / Deep Learning für Regressionsmodelle mit georäumlichen UmweltdatenSteininger, Michael January 2023 (has links) (PDF)
Environmental issues have emerged especially since humans burned fossil fuels, which led to air pollution and climate change that harm the environment. These issues’ substantial consequences evoked strong efforts towards assessing the state of our environment.
Various environmental machine learning (ML) tasks aid these efforts. These tasks concern environmental data but are common ML tasks otherwise, i.e., datasets are split (training, validatition, test), hyperparameters are optimized on validation data, and test set metrics measure a model’s generalizability. This work focuses on the following environmental ML tasks: Regarding air pollution, land use regression (LUR) estimates air pollutant concentrations at locations where no measurements are available based on measured locations and each location’s land use (e.g., industry, streets). For LUR, this work uses data from London (modeled) and Zurich (measured). Concerning climate change, a common ML task is model output statistics (MOS), where a climate model’s output for a study area is altered to better fit Earth observations and provide more accurate climate data. This work uses the regional climate model (RCM) REMO and Earth observations from the E-OBS dataset for MOS. Another task regarding climate is grain size distribution interpolation where soil properties at locations without measurements are estimated based on the few measured locations. This can provide climate models with soil information, that is important for hydrology. For this task, data from Lower Franconia is used.
Such environmental ML tasks commonly have a number of properties: (i) geospatiality, i.e., their data refers to locations relative to the Earth’s surface. (ii) The environmental variables to estimate or predict are usually continuous. (iii) Data can be imbalanced due to relatively rare extreme events (e.g., extreme precipitation). (iv) Multiple related potential target variables can be available per location, since measurement devices often contain different sensors. (v) Labels are spatially often only sparsely available since conducting measurements at all locations of interest is usually infeasible. These properties present challenges but also opportunities when designing ML methods for such tasks.
In the past, environmental ML tasks have been tackled with conventional ML methods, such as linear regression or random forests (RFs). However, the field of ML has made tremendous leaps beyond these classic models through deep learning (DL). In DL, models use multiple layers of neurons, producing increasingly higher-level feature representations with growing layer depth. DL has made previously infeasible ML tasks feasible, improved the performance for many tasks in comparison to existing ML models significantly, and eliminated the need for manual feature engineering in some domains due to its ability to learn features from raw data. To harness these advantages for environmental domains it is promising to develop novel DL methods for environmental ML tasks.
This thesis presents methods for dealing with special challenges and exploiting opportunities inherent to environmental ML tasks in conjunction with DL. To this end, the proposed methods explore the following techniques: (i) Convolutions as in convolutional neural networks (CNNs) to exploit reoccurring spatial patterns in geospatial data. (ii) Posing the problems as regression tasks to estimate the continuous variables. (iii) Density-based weighting to improve estimation performance for rare and extreme events. (iv) Multi-task learning to make use of multiple related target variables. (v) Semi–supervised learning to cope with label sparsity. Using these techniques, this thesis considers four research questions: (i) Can air pollution be estimated without manual feature engineering? This is answered positively by the introduction of the CNN-based LUR model MapLUR as well as the off-the-shelf LUR solution OpenLUR. (ii) Can colocated pollution data improve spatial air pollution models? Multi-task learning for LUR is developed for this, showing potential for improvements with colocated data. (iii) Can DL models improve the quality of climate model outputs? The proposed DL climate MOS architecture ConvMOS demonstrates this. Additionally, semi-supervised training of multilayer perceptrons (MLPs) for grain size distribution interpolation is presented, which can provide improved input data. (iv) Can DL models be taught to better estimate climate extremes? To this end, density-based weighting for imbalanced regression (DenseLoss) is proposed and applied to the DL architecture ConvMOS, improving climate extremes estimation. These methods show how especially DL techniques can be developed for environmental ML tasks with their special characteristics in mind. This allows for better models than previously possible with conventional ML, leading to more accurate assessment and better understanding of the state of our environment. / Umweltprobleme sind vor allem seit der Verbrennung fossiler Brennstoffe durch den Menschen entstanden. Dies hat zu Luftverschmutzung und Klimawandel geführt, was die Umwelt schädigt. Die schwerwiegenden Folgen dieser Probleme haben starke Bestrebungen ausgelöst, den Zustand unserer Umwelt zu untersuchen.
Verschiedene Ansätze des maschinellen Lernens (ML) im Umweltbereich unterstützen diese Bestrebungen. Bei diesen Aufgaben handelt es sich um gewöhnliche ML-Aufgaben, z. B. werden die Datensätze aufgeteilt (Training, Validation, Test), Hyperparameter werden auf den Validierungsdaten optimiert, und die Metriken auf den Testdaten messen die Generalisierungsfähigkeit eines Modells, aber sie befassen sich mit Umweltdaten. Diese Arbeit konzentriert sich auf die folgenden Umwelt-ML-Aufgaben: In Bezug auf Luftverschmutzung schätzt Land Use Regression (LUR) die Luftschadstoffkonzentration an Orten, an denen keine Messungen verfügbar sind auf Basis von gemessenen Orten und der Landnutzung (z. B. Industrie, Straßen) der Orte. Für LUR werden in dieser Arbeit Daten aus London (modelliert) und Zürich (gemessen) verwendet. Im Zusammenhang mit dem Klimawandel ist eine häufige ML-Aufgabe Model Output Statistics (MOS), bei der die Ausgaben eines Klimamodells so angepasst werden, dass sie mit Erdbeobachtungen besser übereinstimmen. Dadurch werden genauere Klimadaten erzeugt. Diese Arbeit verwendet das regionale Klimamodell REMO und Erdbeobachtungen aus dem E-OBS-Datensatz für MOS. Eine weitere Aufgabe im Zusammenhang mit dem Klima ist die Interpolation von Korngrößenverteilungen. Hierbei werden Bodeneigenschaften an Orten ohne Messungen auf Basis von wenigen gemessenen Orten geschätzt, um Klimamodelle mit Bodeninformationen zu versorgen, die für die Hydrologie wichtig sind. Für diese Aufgabe werden in dieser Arbeit Bodenmessungen aus Unterfranken herangezogen.
Solche Umwelt-ML-Aufgaben haben oft eine Reihe von Eigenschaften: (i) Georäumlichkeit, d. h. ihre Daten beziehen sich auf Standorte relativ zur Erdoberfläche. (ii) Die zu schätzenden oder vorherzusagenden Umweltvariablen sind normalerweise kontinuierlich. (iii) Daten können unbalanciert sein, was auf relativ seltene Extremereignisse (z. B. extreme Niederschläge) zurückzuführen ist. (iv) Pro Standort können mehrere verwandte potenzielle Zielvariablen verfügbar sein, da Messgeräte oft verschiedene Sensoren enthalten. (v) Zielwerte sind räumlich oft nur spärlich vorhanden, da die Durchführung von Messungen an allen gewünschten Orten in der Regel nicht möglich ist. Diese Eigenschaften stellen eine Herausforderung, aber auch eine Chance bei der Entwicklung von ML-Methoden für derlei Aufgaben dar.
In der Vergangenheit wurden ML-Aufgaben im Umweltbereich mit konventionellen ML-Methoden angegangen, wie z. B. lineare Regression oder Random Forests (RFs). In den letzten Jahren hat der Bereich ML jedoch durch Deep Learning (DL) enorme Fortschritte über diese klassischen Modelle hinaus gemacht. Bei DL verwenden die Modelle mehrere Schichten von Neuronen, die mit zunehmender Schichtungstiefe immer abstraktere Merkmalsdarstellungen erzeugen. DL hat zuvor undurchführbare ML-Aufgaben realisierbar gemacht, die Leistung für viele Aufgaben im Vergleich zu bestehenden ML-Modellen erheblich verbessert und die Notwendigkeit für manuelles Feature-Engineering in einigen Bereichen aufgrund seiner Fähigkeit, Features aus Rohdaten zu lernen, eliminiert. Um diese Vorteile für ML-Aufgaben in der Umwelt nutzbar zu machen, ist es vielversprechend, geeignete DL-Methoden für diesen Bereich zu entwickeln.
In dieser Arbeit werden Methoden zur Bewältigung der besonderen Herausforderungen und zur Nutzung der Möglichkeiten von Umwelt-ML-Aufgaben in Verbindung mit DL vorgestellt. Zu diesem Zweck werden in den vorgeschlagenen Methoden die folgenden Techniken untersucht: (i) Faltungen wie in Convolutional Neural Networks (CNNs), um wiederkehrende räumliche Muster in Geodaten zu nutzen. (ii) Probleme als Regressionsaufgaben stellen, um die kontinuierlichen Variablen zu schätzen. (iii) Dichtebasierte Gewichtung zur Verbesserung der Schätzungen bei seltenen und extremen Ereignissen. (iv) Multi-Task-Lernen, um mehrere verwandte Zielvariablen zu nutzen. (v) Halbüber- wachtes Lernen, um auch mit wenigen bekannten Zielwerten zurechtzukommen. Mithilfe dieser Techniken werden in der Arbeit vier Forschungsfragen untersucht: (i) Kann Luftverschmutzung ohne manuelles Feature Engineering geschätzt werden? Dies wird durch die Einführung des CNN-basierten LUR-Modells MapLUR sowie der automatisierten LUR–Lösung OpenLUR positiv beantwortet. (ii) Können kolokalisierte Verschmutzungsdaten räumliche Luftverschmutzungsmodelle verbessern? Hierfür wird Multi-Task-Learning für LUR entwickelt, das Potenzial für Verbesserungen mit kolokalisierten Daten zeigt. (iii) Können DL-Modelle die Qualität der Ausgaben von Klimamodellen verbessern? Die vorgeschlagene DL-MOS-Architektur ConvMOS demonstriert das. Zusätzlich wird halbüberwachtes Training von Multilayer Perceptrons (MLPs) für die Interpolation von Korngrößenverteilungen vorgestellt, das verbesserte Eingabedaten liefern kann. (iv) Kann man DL-Modellen beibringen, Klimaextreme besser abzuschätzen? Zu diesem Zweck wird eine dichtebasierte Gewichtung für unbalancierte Regression (DenseLoss) vorgeschlagen und auf die DL-Architektur ConvMOS angewendet, um die Schätzung von Klimaextremen zu verbessern. Diese Methoden zeigen, wie speziell DL-Techniken für Umwelt-ML-Aufgaben unter Berücksichtigung ihrer besonderen Eigenschaften entwickelt werden können. Dies ermöglicht bessere Modelle als konventionelles ML bisher erlaubt hat, was zu einer genaueren Bewertung und einem besseren Verständnis des Zustands unserer Umwelt führt.
|
Page generated in 0.0272 seconds