• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 212
  • 74
  • 14
  • 2
  • Tagged with
  • 301
  • 301
  • 209
  • 186
  • 177
  • 133
  • 123
  • 123
  • 61
  • 36
  • 35
  • 31
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

State-of-health estimation by virtual experiments using recurrent decoder-encoder based lithium-ion digital battery twins trained on unstructured battery data

Schmitt, Jakob, Horstkötter, Ivo, Bäker, Bernard 15 March 2024 (has links)
Due to the large share of production costs, the lifespan of an electric vehicle’s (EV) lithium-ion traction battery should be as long as possible. The optimisation of the EV’s operating strategy with regard to battery life requires a regular evaluation of the battery’s state-of-health (SOH). Yet the SOH, the remaining battery capacity, cannot be measured directly through sensors but requires the elaborate conduction of special characterisation tests. Considering the limited number of test facilities as well as the rapidly growing number of EVs, time-efficient and scalable SOH estimation methods are urgently needed and are the object of investigation in this work. The developed virtual SOH experiment originates from the incremental capacity measurement and solely relies on the commonly logged battery management system (BMS) signals to train the digital battery twins. The first examined dataset with identical load profiles for new and aged battery state serves as proof of concept. The successful SOH estimation based on the second dataset that consists of varying load profiles with increased complexity constitutes a step towards the application on real driving cycles. Assuming that the load cycles contain pauses and start from the fully charged battery state, the SOH estimation succeeds either through a steady shift of the load sequences (variant one) with an average deviation of 0.36% or by random alignment of the dataset’s subsequences (variant two) with 1.04%. In contrast to continuous capacity tests, the presented framework does not impose restrictions to small currents. It is entirely independent of the prevailing and unknown ageing condition due to the application of battery models based on the novel encoder–decoder architecture and thus provides the cornerstone for a scalable and robust estimation of battery capacity on a pure data basis.
272

Abilities and Disabilities—Applying Machine Learning to Disentangle the Role of Intelligence in Diagnosing Autism Spectrum Disorders

Wolff, Nicole, Eberlein, Matthias, Stroth, Sanna, Poustka, Luise, Roepke, Stefan, Kamp-Becker, Inge, Roessner, Veit 22 April 2024 (has links)
Objective: Although autism spectrum disorder (ASD) is a relatively common, well-known but heterogeneous neuropsychiatric disorder, specific knowledge about characteristics of this heterogeneity is scarce. There is consensus that IQ contributes to this heterogeneity as well as complicates diagnostics and treatment planning. In this study, we assessed the accuracy of the Autism Diagnostic Observation Schedule (ADOS/2) in the whole and IQ-defined subsamples, and analyzed if the ADOS/2 accuracy may be increased by the application of machine learning (ML) algorithms that processed additional information including the IQ level. Methods: The study included 1,084 individuals: 440 individuals with ASD (with a mean IQ level of 3.3 ± 1.5) and 644 individuals without ASD (with a mean IQ level of 3.2 ± 1.2). We applied and analyzed Random Forest (RF) and Decision Tree (DT) to the ADOS/2 data, compared their accuracy to ADOS/2 cutoff algorithms, and examined most relevant items to distinguish between ASD and Non-ASD. In sum, we included 49 individual features, independently of the applied ADOS module. Results: In DT analyses, we observed that for the decision ASD/Non-ASD, solely one to four items are sufficient to differentiate between groups with high accuracy. In addition, in sub-cohorts of individuals with (a) below (IQ level ≥4)/ID and (b) above average intelligence (IQ level ≤ 2), the ADOS/2 cutoff showed reduced accuracy. This reduced accuracy results in (a) a three times higher risk of false-positive diagnoses or (b) a 1.7 higher risk for false-negative diagnoses; both errors could be significantly decreased by the application of the alternative ML algorithms. Conclusions: Using ML algorithms showed that a small set of ADOS/2 items could help clinicians to more accurately detect ASD in clinical practice across all IQ levels and to increase diagnostic accuracy especially in individuals with below and above average IQ level.
273

Anwendung des CTOD-Konzepts auf Rissfortschritt unter thermomechanischer Beanspruchung mithilfe von Experimenten und numerischer Simulation

Gesell, Stephan 07 August 2024 (has links)
Im Rahmen des Forschungsprojekts ”TMF-Rissverlaufsberechnung für ATL-Heißteile“ des FVV e.V. wurden Untersuchungen zur Entwicklung eines Rissfortschrittsgesetzes unter thermomechanischer Wechselbeanspruchung (thermo-mechanical fatigue, TMF) für das austenitische Gusseisen Ni-Resist D-5S durchgeführt. Ziel der experimentellen Arbeiten war es, mit einseitig gekerbten Proben (SENT) eine Datenbasis für Risswachstum unter TMF-Belastung zu schaffen. Das Werkstoffverhalten des betrachteten austenitischen Gusseisens Ni-Resist D-5S wurde mithilfe eines validierten viskoplastischen, temperaturabhängigen Materialmodells modelliert, das zur Berücksichtigung großer Verzerrungen und Rotationen am Riss auf große Deformationen erweitert wurde. Zur Beurteilung des Rissfortschritts unter TMF wurde die zyklische Rissspitzenöffnungsverschiebung (ΔCTOD) als geeigneter Beanspruchungsparameter verwendet. Für die Simulation der Rissausbreitung wurde ein automatischer FEM-Algorithmus mit inkrementeller, adaptiver Neuvernetzung entwickelt. Dabei wurden Verformungen und inelastische Zustandsvariablen auf das neue Netz übertragen. Der Einfluss verschiedener Parameter innerhalb der Simulationsstruktur wurde analysiert. Ein verbesserter Mapping-Algorithmus zur Übertragung der Zustandsvariablen wurde entwickelt. Mithilfe begleitender 2D FEM-Simulationen wurden die Rissfortschrittskurven des Werkstoffs basierend auf den experimentellen Daten ermittelt und unter Anwendung des ΔCTOD Konzepts in parametrisierter Form dargestellt. Zusätzlich wurden Rissfortschrittsgesetze durch den Einsatz von Machine-Learning-Konzepten bestimmt. Dies ermöglicht erstmals eine quantitative Vorhersage der Rissentwicklung unter Beanspruchungsbedingungen mit Großbereichsfließen unter Berücksichtigung von TMF. / As part of the research project ”TMF crack propagation calculation for ATL hot parts“ of the FVV e.V., an investigation was carried out to develop a crack propagation law under thermomechanical fatigue (TMF) for the austenitic cast iron Ni-Resist D-5S. The aim of the experimental work was to create a database for crack growth under TMF loading with single edge notch tension specimens (SENT). The material behavior of the austenitic cast iron under consideration, Ni-Resist D-5S, was modeled using a validated viscoplastic temperature dependent material model, which was extended to large deformations to account for large distortions and rotations in the crack. The cyclic crack opening displacement (ΔCTOD) was used as a suitable loading parameter to assess crack propagation under TMF. An automatic FEM algorithm with incremental adaptive remeshing was developed for the simulation of crack propagation. In the process, the deformations and inelastic state variables were transferred to the new mesh. The influence of different parameters within the simulation structure was analyzed. An ideal mapping algorithm for the transfer of state variables was developed. With the help of accompanying 2D FEM simulations, the crack propagation curves of the material were determined on the basis of the experimental data and presented in parameterized form using the concept ΔCTOD. Furthermore, crack propagation laws were determined using machine learning concepts. This allows for the first time a quantitative prediction of crack development under loading conditions with large scale yielding taking TMF into account.
274

BLAINDER—A Blender AI Add-On for Generation of Semantically Labeled Depth-Sensing Data

Reitmann, Stefan, Neumann, Lorenzo, Jung, Bernhard 02 July 2024 (has links)
Common Machine-Learning (ML) approaches for scene classification require a large amountof training data. However, for classification of depth sensor data, in contrast to image data, relativelyfew databases are publicly available and manual generation of semantically labeled 3D point clouds isan even more time-consuming task. To simplify the training data generation process for a wide rangeof domains, we have developed theBLAINDERadd-on package for the open-source 3D modelingsoftware Blender, which enables a largely automated generation of semantically annotated point-cloud data in virtual 3D environments. In this paper, we focus on classical depth-sensing techniquesLight Detection and Ranging (LiDAR) and Sound Navigation and Ranging (Sonar). Within theBLAINDERadd-on, different depth sensors can be loaded from presets, customized sensors can beimplemented and different environmental conditions (e.g., influence of rain, dust) can be simulated.The semantically labeled data can be exported to various 2D and 3D formats and are thus optimizedfor different ML applications and visualizations. In addition, semantically labeled images can beexported using the rendering functionalities of Blender.
275

Monoscopic Analysis of H.E.S.S. Phase II Data on PSR B1259–63/LS 2883

Murach, Thomas 20 October 2017 (has links)
Cherenkov-Teleskope sind in der Lage, das schwache Cherenkovlicht aus Teilchenschauern zu detektieren, die von kosmischen Teilchen mit Energien von ca. 100 GeV bis 100 TeV in der Erdatmosphäre initiiert werden. Das Ziel ist die Detektion von Cherenkovlicht aus Schauern, die von Gammastrahlen erzeugt wurden, der größte Teil der Schauer stammt jedoch von geladenen Teilchen. Im Jahr 2012 wurde das H.E.S.S.-Observatorium in Namibia, bis dahin bestehend aus vier Teleskopen mit 100 m²-Spiegeln, um ein fünftes Teleskop mit einer Spiegelfläche von ca. 600 m² ergänzt. Aufgrund der großen Spiegelfläche besitzt dieses Teleskop die niedrigste Energieschwelle aller Teleskope dieser Art. In dieser Dissertation wird ein schneller Algorithmus namens MonoReco präsentiert, der grundlegende Eigenschaften der Gammastrahlen wie ihre Energien und Richtungen rekonstruieren kann. Dieser Algorithmus kann weiterhin unterscheiden, ob Schauer von Gammastrahlen oder von geladenen Teilchen der kosmischen Strahlung initiiert wurden. Diese Aufgaben werden mit mithilfe von künstlichen neuronalen Netzwerken erfüllt, welche ausschließlich die Momente der Intensitätsverteilungen in der Kamera des neuen Teleskops analysieren. Eine Energieschwelle von 59 GeV und Richtungsauflösungen von 0.1°-0.3° werden erreicht. Das Energiebias liegt bei wenigen Prozent, die Energieauflösung bei 20-30%. Unter anderem mit dem MonoReco-Algorithmus wurden Daten, die in der Zeit um das Periastron des Binärsystems PSR B1259-63/LS 2883 im Jahre 2014 genommen wurden, analysiert. Es handelt sich hierbei um einen Neutronenstern, der sich in einem 3,4-Jahres-Orbit um einen massereichen Stern mit einer den Stern umgebenden Scheibe aus Gas und Plasmen befindet. Zum ersten Mal konnte H.E.S.S. das Gammastrahlenspektrum dieses Systems bei Energien unterhalb von 200 GeV messen. Weiterhin wurde bei erstmaligen Beobachtungen zur Zeit des Periastrons ein lokales Flussminimum gemessen. Sowohl vor dem ersten als auch nach dem zweiten Transit des Neutronensterns durch die Scheibe wurden hohe Flüsse gemessen. Im zweiten Fall wurden Beobachtungen erstmals zeitgleich mit dem Fermi-LAT-Experiment durchgeführt, das wiederholt sehr hohe Flüsse in diesem Teil des Orbits messen konnte. Ein Vergleich der gemessenen Flüsse mit Vorhersagen eines leptonischen Modells zeigt gute Übereinstimmungen. / Cherenkov telescopes can detect the faint Cherenkov light emitted by air showers that were initiated by cosmic particles with energies between approximately 100 GeV and 100 TeV in the Earth's atmosphere. Aiming for the detection of Cherenkov light emitted by gamma ray-initiated air showers, the vast majority of all detected showers are initiated by charged cosmic rays. In 2012 the H.E.S.S. observatory, until then comprising four telescopes with 100 m² mirrors each, was extended by adding a much larger fifth telescope with a very large mirror area of 600 m². Due to the large mirror area, this telescope has the lowest energy threshold of all telescopes of this kind. In this dissertation, a fast algorithm called MonoReco is presented that can reconstruct fundamental properties of the primary gamma rays like their direction or their energy. Furthermore, this algorithm can distinguish between air showers initiated either by gamma rays or by charged cosmic rays. Those tasks are accomplished with the help of artificial neural networks, which analyse moments of the intensity distributions in the camera of the new telescope exclusively. The energy threshold is 59 GeV and angular resolutions of 0.1°-0.3° are achieved. The energy reconstruction bias is at the level of a few percent, the energy resolution is at the level of 20-30%. Data taken around the 2014 periastron passage of the gamma-ray binary PSR B1259-63/LS 2883 were analysed with, among others, the MonoReco algorithm. This binary system comprises a neutron star in a 3.4 year orbit around a massive star with a circumstellar disk consisting of gas and plasma. For the first time the gamma-ray spectrum of this system could be measured by H.E.S.S. down to below 200 GeV. Furthermore, a local flux minimum could be measured during unprecedented measurements at the time of periastron. High fluxes were measured both before the first and after the second transit of the neutron star through the disk. In the second case measurements could be performed for the first time contemporaneously with the Fermi-LAT experiment, which has repeatedly detected very high fluxes at this part of the orbit. A good agreement between measured fluxes and predictions of a leptonic model is found.
276

Quantifying urban land cover by means of machine learning and imaging spectrometer data at multiple spatial scales

Okujeni, Akpona 15 December 2014 (has links)
Das weltweite Ausmaß der Urbanisierung zählt zu den großen ökologischen Herausforderungen des 21. Jahrhunderts. Die Fernerkundung bietet die Möglichkeit das Verständnis dieses Prozesses und seiner Auswirkungen zu erweitern. Der Fokus dieser Arbeit lag in der Quantifizierung der städtischen Landbedeckung mittels Maschinellen Lernens und räumlich unterschiedlich aufgelöster Hyperspektraldaten. Untersuchungen berücksichtigten innovative methodische Entwicklungen und neue Möglichkeiten, die durch die bevorstehende Satellitenmission EnMAP geschaffen werden. Auf Basis von Bilder des flugzeugestützten HyMap Sensors mit Auflösungen von 3,6 m und 9 m sowie simulierten EnMAP-Daten mit einer Auflösung von 30 m wurde eine Kartierung entlang des Stadt-Umland-Gradienten Berlins durchgeführt. Im ersten Teil der Arbeit wurde die Kombination von Support Vektor Regression mit synthetischen Trainingsdaten für die Subpixelkartierung eingeführt. Ergebnisse zeigen, dass sich der Ansatz gut zur Quantifizierung thematisch relevanter und spektral komplexer Oberflächenarten eignet, dass er verbesserte Ergebnisse gegenüber weiteren Subpixelverfahren erzielt, und sich als universell einsetzbar hinsichtlich der räumlichen Auflösung erweist. Im zweiten Teil der Arbeit wurde der Wert zukünftiger EnMAP-Daten für die städtische Fernerkundung abgeschätzt. Detaillierte Untersuchungen unterstreichen deren Eignung für eine verbesserte und erweiterte Beschreibung der Stadt nach dem bewährten Vegetation-Impervious-Soil-Schema. Analysen der Möglichkeiten und Grenzen zeigen sowohl Nachteile durch die höhere Anzahl von Mischpixel im Vergleich zu hyperspektralen Flugzeugdaten als auch Vorteile aufgrund der verbesserten Differenzierung städtischer Materialien im Vergleich zu multispektralen Daten. Insgesamt veranschaulicht diese Arbeit, dass die Kombination von hyperspektraler Satellitenbildfernerkundung mit Methoden des Maschinellen Lernens eine neue Qualität in die städtische Fernerkundung bringen kann. / The global dimension of urbanization constitutes a great environmental challenge for the 21st century. Remote sensing is a valuable Earth observation tool, which helps to better understand this process and its ecological implications. The focus of this work was to quantify urban land cover by means of machine learning and imaging spectrometer data at multiple spatial scales. Experiments considered innovative methodological developments and novel opportunities in urban research that will be created by the upcoming hyperspectral satellite mission EnMAP. Airborne HyMap data at 3.6 m and 9 m resolution and simulated EnMAP data at 30 m resolution were used to map land cover along an urban-rural gradient of Berlin. In the first part of this work, the combination of support vector regression with synthetically mixed training data was introduced as sub-pixel mapping technique. Results demonstrate that the approach performs well in quantifying thematically meaningful yet spectrally challenging surface types. The method proves to be both superior to other sub-pixel mapping approaches and universally applicable with respect to changes in spatial scales. In the second part of this work, the value of future EnMAP data for urban remote sensing was evaluated. Detailed explorations on simulated data demonstrate their suitability for improving and extending the approved vegetation-impervious-soil mapping scheme. Comprehensive analyses of benefits and limitations of EnMAP data reveal both challenges caused by the high numbers of mixed pixels, when compared to hyperspectral airborne imagery, and improvements due to the greater material discrimination capability when compared to multispectral spaceborne imagery. In summary, findings demonstrate how combining spaceborne imaging spectrometry and machine learning techniques could introduce a new quality to the field of urban remote sensing.
277

Scalable and Efficient Analysis of Large High-Dimensional Data Sets in the Context of Recurrence Analysis

Rawald, Tobias 13 February 2018 (has links)
Die Recurrence Quantification Analysis (RQA) ist eine Methode aus der nicht-linearen Zeitreihenanalyse. Im Mittelpunkt dieser Methode steht die Auswertung des Inhalts sogenannter Rekurrenzmatrizen. Bestehende Berechnungsansätze zur Durchführung der RQA können entweder nur Zeitreihen bis zu einer bestimmten Länge verarbeiten oder benötigen viel Zeit zur Analyse von sehr langen Zeitreihen. Diese Dissertation stellt die sogenannte skalierbare Rekurrenzanalyse (SRA) vor. Sie ist ein neuartiger Berechnungsansatz, der eine gegebene Rekurrenzmatrix in mehrere Submatrizen unterteilt. Jede Submatrix wird von einem Berechnungsgerät in massiv-paralleler Art und Weise untersucht. Dieser Ansatz wird unter Verwendung der OpenCL-Schnittstelle umgesetzt. Anhand mehrerer Experimente wird demonstriert, dass SRA massive Leistungssteigerungen im Vergleich zu existierenden Berechnungsansätzen insbesondere durch den Einsatz von Grafikkarten ermöglicht. Die Dissertation enthält eine ausführliche Evaluation, die den Einfluss der Anwendung mehrerer Datenbankkonzepte, wie z.B. die Repräsentation der Eingangsdaten, auf die RQA-Verarbeitungskette analysiert. Es wird untersucht, inwiefern unterschiedliche Ausprägungen dieser Konzepte Einfluss auf die Effizienz der Analyse auf verschiedenen Berechnungsgeräten haben. Abschließend wird ein automatischer Optimierungsansatz vorgestellt, der performante RQA-Implementierungen für ein gegebenes Analyseszenario in Kombination mit einer Hardware-Plattform dynamisch bestimmt. Neben anderen Aspekten werden drastische Effizienzgewinne durch den Einsatz des Optimierungsansatzes aufgezeigt. / Recurrence quantification analysis (RQA) is a method from nonlinear time series analysis. It relies on the identification of line structures within so-called recurrence matrices and comprises a set of scalar measures. Existing computing approaches to RQA are either not capable of processing recurrence matrices exceeding a certain size or suffer from long runtimes considering time series that contain hundreds of thousands of data points. This thesis introduces scalable recurrence analysis (SRA), which is an alternative computing approach that subdivides a recurrence matrix into multiple sub matrices. Each sub matrix is processed individually in a massively parallel manner by a single compute device. This is implemented exemplarily using the OpenCL framework. It is shown that this approach delivers considerable performance improvements in comparison to state-of-the-art RQA software by exploiting the computing capabilities of many-core hardware architectures, in particular graphics cards. The usage of OpenCL allows to execute identical SRA implementations on a variety of hardware platforms having different architectural properties. An extensive evaluation analyses the impact of applying concepts from database technology, such memory storage layouts, to the RQA processing pipeline. It is investigated how different realisations of these concepts affect the performance of the computations on different types of compute devices. Finally, an approach based on automatic performance tuning is introduced that automatically selects well-performing RQA implementations for a given analytical scenario on specific computing hardware. Among others, it is demonstrated that the customised auto-tuning approach allows to considerably increase the efficiency of the processing by adapting the implementation selection.
278

Learning Finite State Machine Specifications from Test Cases / Lernen von Spezifikationen in Form von endlichen Zustandsmaschinen aus Testfällen

Werner, Edith Benedicta Maria 01 June 2010 (has links)
No description available.
279

Prediction of Protein-Protein Interaction Sites with Conditional Random Fields / Vorhersage der Protein-Protein Wechselwirkungsstellen mit Conditional Random Fields

Dong, Zhijie 27 April 2012 (has links)
No description available.
280

Local- and Cluster Weighted Modeling for Prediction and State Estimation of Nonlinear Dynamical Systems / Lokale- und Cluster-Weighted-Modellierung zur Vorhersage und Zustandsschätzung nichtlinearer dynamischer Systeme

Engster, David 24 August 2010 (has links)
No description available.

Page generated in 0.0576 seconds