• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 251
  • 187
  • 36
  • 28
  • 1
  • 1
  • Tagged with
  • 503
  • 184
  • 141
  • 74
  • 73
  • 73
  • 64
  • 61
  • 60
  • 60
  • 58
  • 57
  • 55
  • 55
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Chemnitzer Linux-Tage 2010

Demierre, Andéol, Eggers, Monika, Garbe, Anselm R., Groß, Thomas, Jaenisch, Volker, Jung, Marco, Knopper, Klaus, Lang, Jens, Luithardt, Wolfram, Noble, Howard, Obst, Marcus, Pucklitzsch, Thomas, Schlittermann, Heiko, Schumacher, Stefan, Seidel, Philipp, Spillner, Josef, Tang, Kang, Walle, Bernhard, Wetzel, Ulrich 16 April 2010 (has links) (PDF)
Die Chemnitzer Linux-Tage fanden am 13. und 14. März 2010 auf dem Campus der Technischen Universität Chemnitz statt. Neben den Präsentationen im Foyer zogen vor allem die Vorträge über 2500 Besucher zur 12. Auflage der Veranstaltung. Der Band vereint den Inhalt von 15 Hauptvorträgen und die Abstrakts von 76 weiteren Beiträgen und stellt damit einen Überblick über das weit gefächerte Programm der Veranstaltung dar. / The Chemnitz Linux Days took place at the campus of the Chemnitz University of Technology. Besides the presentations at the foyer the lectures were first of all attractive for more than 2.500 visitors. This volume contains the content of 15 main lectures and abstracts of 76 further talks and hence gives a survey of the broadly based program of this event.
482

Integrating Natural Language Processing (NLP) and Language Resources Using Linked Data

Hellmann, Sebastian 12 January 2015 (has links) (PDF)
This thesis is a compendium of scientific works and engineering specifications that have been contributed to a large community of stakeholders to be copied, adapted, mixed, built upon and exploited in any way possible to achieve a common goal: Integrating Natural Language Processing (NLP) and Language Resources Using Linked Data The explosion of information technology in the last two decades has led to a substantial growth in quantity, diversity and complexity of web-accessible linguistic data. These resources become even more useful when linked with each other and the last few years have seen the emergence of numerous approaches in various disciplines concerned with linguistic resources and NLP tools. It is the challenge of our time to store, interlink and exploit this wealth of data accumulated in more than half a century of computational linguistics, of empirical, corpus-based study of language, and of computational lexicography in all its heterogeneity. The vision of the Giant Global Graph (GGG) was conceived by Tim Berners-Lee aiming at connecting all data on the Web and allowing to discover new relations between this openly-accessible data. This vision has been pursued by the Linked Open Data (LOD) community, where the cloud of published datasets comprises 295 data repositories and more than 30 billion RDF triples (as of September 2011). RDF is based on globally unique and accessible URIs and it was specifically designed to establish links between such URIs (or resources). This is captured in the Linked Data paradigm that postulates four rules: (1) Referred entities should be designated by URIs, (2) these URIs should be resolvable over HTTP, (3) data should be represented by means of standards such as RDF, (4) and a resource should include links to other resources. Although it is difficult to precisely identify the reasons for the success of the LOD effort, advocates generally argue that open licenses as well as open access are key enablers for the growth of such a network as they provide a strong incentive for collaboration and contribution by third parties. In his keynote at BNCOD 2011, Chris Bizer argued that with RDF the overall data integration effort can be “split between data publishers, third parties, and the data consumer”, a claim that can be substantiated by observing the evolution of many large data sets constituting the LOD cloud. As written in the acknowledgement section, parts of this thesis has received numerous feedback from other scientists, practitioners and industry in many different ways. The main contributions of this thesis are summarized here: Part I – Introduction and Background. During his keynote at the Language Resource and Evaluation Conference in 2012, Sören Auer stressed the decentralized, collaborative, interlinked and interoperable nature of the Web of Data. The keynote provides strong evidence that Semantic Web technologies such as Linked Data are on its way to become main stream for the representation of language resources. The jointly written companion publication for the keynote was later extended as a book chapter in The People’s Web Meets NLP and serves as the basis for “Introduction” and “Background”, outlining some stages of the Linked Data publication and refinement chain. Both chapters stress the importance of open licenses and open access as an enabler for collaboration, the ability to interlink data on the Web as a key feature of RDF as well as provide a discussion about scalability issues and decentralization. Furthermore, we elaborate on how conceptual interoperability can be achieved by (1) re-using vocabularies, (2) agile ontology development, (3) meetings to refine and adapt ontologies and (4) tool support to enrich ontologies and match schemata. Part II - Language Resources as Linked Data. “Linked Data in Linguistics” and “NLP & DBpedia, an Upward Knowledge Acquisition Spiral” summarize the results of the Linked Data in Linguistics (LDL) Workshop in 2012 and the NLP & DBpedia Workshop in 2013 and give a preview of the MLOD special issue. In total, five proceedings – three published at CEUR (OKCon 2011, WoLE 2012, NLP & DBpedia 2013), one Springer book (Linked Data in Linguistics, LDL 2012) and one journal special issue (Multilingual Linked Open Data, MLOD to appear) – have been (co-)edited to create incentives for scientists to convert and publish Linked Data and thus to contribute open and/or linguistic data to the LOD cloud. Based on the disseminated call for papers, 152 authors contributed one or more accepted submissions to our venues and 120 reviewers were involved in peer-reviewing. “DBpedia as a Multilingual Language Resource” and “Leveraging the Crowdsourcing of Lexical Resources for Bootstrapping a Linguistic Linked Data Cloud” contain this thesis’ contribution to the DBpedia Project in order to further increase the size and inter-linkage of the LOD Cloud with lexical-semantic resources. Our contribution comprises extracted data from Wiktionary (an online, collaborative dictionary similar to Wikipedia) in more than four languages (now six) as well as language-specific versions of DBpedia, including a quality assessment of inter-language links between Wikipedia editions and internationalized content negotiation rules for Linked Data. In particular the work described in created the foundation for a DBpedia Internationalisation Committee with members from over 15 different languages with the common goal to push DBpedia as a free and open multilingual language resource. Part III - The NLP Interchange Format (NIF). “NIF 2.0 Core Specification”, “NIF 2.0 Resources and Architecture” and “Evaluation and Related Work” constitute one of the main contribution of this thesis. The NLP Interchange Format (NIF) is an RDF/OWL-based format that aims to achieve interoperability between Natural Language Processing (NLP) tools, language resources and annotations. The core specification is included in and describes which URI schemes and RDF vocabularies must be used for (parts of) natural language texts and annotations in order to create an RDF/OWL-based interoperability layer with NIF built upon Unicode Code Points in Normal Form C. In , classes and properties of the NIF Core Ontology are described to formally define the relations between text, substrings and their URI schemes. contains the evaluation of NIF. In a questionnaire, we asked questions to 13 developers using NIF. UIMA, GATE and Stanbol are extensible NLP frameworks and NIF was not yet able to provide off-the-shelf NLP domain ontologies for all possible domains, but only for the plugins used in this study. After inspecting the software, the developers agreed however that NIF is adequate enough to provide a generic RDF output based on NIF using literal objects for annotations. All developers were able to map the internal data structure to NIF URIs to serialize RDF output (Adequacy). The development effort in hours (ranging between 3 and 40 hours) as well as the number of code lines (ranging between 110 and 445) suggest, that the implementation of NIF wrappers is easy and fast for an average developer. Furthermore the evaluation contains a comparison to other formats and an evaluation of the available URI schemes for web annotation. In order to collect input from the wide group of stakeholders, a total of 16 presentations were given with extensive discussions and feedback, which has lead to a constant improvement of NIF from 2010 until 2013. After the release of NIF (Version 1.0) in November 2011, a total of 32 vocabulary employments and implementations for different NLP tools and converters were reported (8 by the (co-)authors, including Wiki-link corpus, 13 by people participating in our survey and 11 more, of which we have heard). Several roll-out meetings and tutorials were held (e.g. in Leipzig and Prague in 2013) and are planned (e.g. at LREC 2014). Part IV - The NLP Interchange Format in Use. “Use Cases and Applications for NIF” and “Publication of Corpora using NIF” describe 8 concrete instances where NIF has been successfully used. One major contribution in is the usage of NIF as the recommended RDF mapping in the Internationalization Tag Set (ITS) 2.0 W3C standard and the conversion algorithms from ITS to NIF and back. One outcome of the discussions in the standardization meetings and telephone conferences for ITS 2.0 resulted in the conclusion there was no alternative RDF format or vocabulary other than NIF with the required features to fulfill the working group charter. Five further uses of NIF are described for the Ontology of Linguistic Annotations (OLiA), the RDFaCE tool, the Tiger Corpus Navigator, the OntosFeeder and visualisations of NIF using the RelFinder tool. These 8 instances provide an implemented proof-of-concept of the features of NIF. starts with describing the conversion and hosting of the huge Google Wikilinks corpus with 40 million annotations for 3 million web sites. The resulting RDF dump contains 477 million triples in a 5.6 GB compressed dump file in turtle syntax. describes how NIF can be used to publish extracted facts from news feeds in the RDFLiveNews tool as Linked Data. Part V - Conclusions. provides lessons learned for NIF, conclusions and an outlook on future work. Most of the contributions are already summarized above. One particular aspect worth mentioning is the increasing number of NIF-formated corpora for Named Entity Recognition (NER) that have come into existence after the publication of the main NIF paper Integrating NLP using Linked Data at ISWC 2013. These include the corpora converted by Steinmetz, Knuth and Sack for the NLP & DBpedia workshop and an OpenNLP-based CoNLL converter by Brümmer. Furthermore, we are aware of three LREC 2014 submissions that leverage NIF: NIF4OGGD - NLP Interchange Format for Open German Governmental Data, N^3 – A Collection of Datasets for Named Entity Recognition and Disambiguation in the NLP Interchange Format and Global Intelligent Content: Active Curation of Language Resources using Linked Data as well as an early implementation of a GATE-based NER/NEL evaluation framework by Dojchinovski and Kliegr. Further funding for the maintenance, interlinking and publication of Linguistic Linked Data as well as support and improvements of NIF is available via the expiring LOD2 EU project, as well as the CSA EU project called LIDER, which started in November 2013. Based on the evidence of successful adoption presented in this thesis, we can expect a decent to high chance of reaching critical mass of Linked Data technology as well as the NIF standard in the field of Natural Language Processing and Language Resources.
483

Konzepte der internetbasierten Gerätesteuerung

Hoffmann, Gunnar 16 December 2011 (has links) (PDF)
Auf dem Gebiet der Gerätesteuerung existieren zahlreiche Insellösungen, die den Anspruch nach generischer Eignung nicht erfüllen. In besonderer Weise defizitär ist der Mangel an ganzheitlichen, offenen Frameworks, bei denen die Autokonfiguration, die Gerätezuordenbarkeit vor Ort, die Geräteüberwachbarkeit, die Inter-Gerätekommunikation und die Automatisierbarkeit von Abläufen Berücksichtigung finden. Vor diesem Hintergrund öffnet die Arbeit mit einer Bestandsaufnahme von Technologien, die Einzelanforderungen der generischen Gerätesteuerung erfüllen. Sie bilden im weiteren Verlauf das potentielle Architekturfundament. Der Betrachtungsrahmen wird hierbei soweit ausgedehnt, dass relevante Verfahrensschritte vom Geräteanschluss bis zur automatisierten Generierung von User Interfaces abgedeckt sind. Unter Rückgriff auf ausgewählte Technologien wird ein zweigliedriger Ansatz vorgestellt, der ein sehr breites Spektrum potentieller Steuergeräte unterstützt und gleichzeitig technologieoffen im Hinblick auf die Autogenerierung von User Interfaces ist. Höchstmögliche Funktionalität wird durch die Beschreibungssprache Device XML (DevXML) erreicht, deren Entwicklung einen Schwerpunkt der Arbeit darstellte. In Anlehnung an die etablierte Petrinetztheorie werden Abhängigkeiten zwischen Zuständen und Funktionen formal beschrieben. Das Sprachvokabular von DevXML ermöglicht hierauf aufbauend Regeldefinitionen mit dem Ziel der Ablaufautomatisierung. Das entworfene Framework wurde anhand von insgesamt elf praktischen Beispielen wie z.B. einem Schalter, einem Heizungsmodul, einem Multimeter bis hin zu virtuellen Geräten erfolgreich verifiziert.
484

In-Vitro Biological Tissue State Monitoring based on Impedance Spectroscopy / Untersuchung der Stromanregung zur Überwachung der menschlichen Gesundheit und des biologischen Gewebes

Guermazi, Mahdi 04 May 2017 (has links) (PDF)
The relationship between post-mortem state and changes of biological tissue impedance has been investigated to serve as a basis for developing an in-vitro measurement method for monitoring the freshness of meat. The main challenges thereby are the reproducible measurement of the impedance of biological tissues and the classification method of their type and state. In order to realize reproducible tissue bio-impedance measurements, a suitable sensor taking into account the anisotropy of the biological tissue has been developed. It consists of cylindrical penetrating multi electrodes realizing good contacts between electrodes and the tissue. Experimental measurements have been carried out with different tissues and for a long period of time in order to monitor the state degradation with time. Measured results have been evaluated by means of the modified Fricke-Cole-Cole model. Results are reproducible and correspond to the expected behavior due to aging. An appropriate method for feature extraction and classification has been proposed using model parameters as features as input for classification using neural networks and fuzzy logic. A Multilayer Perceptron neural network (MLP) has been proposed for muscle type computing and the age computing and respectively freshness state of the meat. The designed neural network is able to generalize and to correctly classify new testing data with a high performance index of recognition. It reaches successful results of test equal to 100% for 972 created inputs for each muscle. An investigation of the influence of noise on the classification algorithm shows, that the MLP neural network has the ability to correctly classify the noisy testing inputs especially when the parameter noise is less than 0.6%. The success of classification is 100% for the muscles Longissimus Dorsi (LD) of beef, Semi-Membraneous (SM) of beef and Longissimus Dorsi (LD) of veal and 92.3% for the muscle Rectus Abdominis (RA) of veal. Fuzzy logic provides a successful alternative for easy classification. Using the Gaussian membership functions for the muscle type detection and trapezoidal member function for the classifiers related to the freshness detection, fuzzy logic realized an easy method of classification and generalizes correctly the inputs to the corresponding classes with a high level of recognition equal to 100% for meat type detection and with high accuracy for freshness computing equal to 84.62% for the muscle LD beef, 92.31 % for the muscle RA beef, 100 % for the muscle SM veal and 61.54% for the muscle LD veal. / Auf der Basis von Impedanzspektroskopie wurde ein neuartiges in-vitro-Messverfahren zur Überwachung der Frische von biologischem Gewebe entwickelt. Die wichtigsten Herausforderungen stellen dabei die Reproduzierbarkeit der Impedanzmessung und die Klassifizierung der Gewebeart sowie dessen Zustands dar. Für die Reproduzierbarkeit von Impedanzmessungen an biologischen Geweben, wurde ein zylindrischer Multielektrodensensor realisiert, der die 2D-Anisotropie des Gewebes berücksichtigt und einen guten Kontakt zum Gewebe realisiert. Experimentelle Untersuchungen wurden an verschiedenen Geweben über einen längeren Zeitraum durchgeführt und mittels eines modifizierten Fricke-Cole-Cole-Modells analysiert. Die Ergebnisse sind reproduzierbar und entsprechen dem physikalisch-basierten erwarteten Verhalten. Als Merkmale für die Klassifikation wurden die Modellparameter genutzt.
485

Chemnitzer Linux-Tage 2010: Tagungsband – 13. und 14. März 2010

Demierre, Andéol, Eggers, Monika, Garbe, Anselm R., Groß, Thomas, Jaenisch, Volker, Jung, Marco, Knopper, Klaus, Lang, Jens, Luithardt, Wolfram, Noble, Howard, Obst, Marcus, Pucklitzsch, Thomas, Schlittermann, Heiko, Schumacher, Stefan, Seidel, Philipp, Spillner, Josef, Tang, Kang, Walle, Bernhard, Wetzel, Ulrich 16 April 2010 (has links)
Die Chemnitzer Linux-Tage fanden am 13. und 14. März 2010 auf dem Campus der Technischen Universität Chemnitz statt. Neben den Präsentationen im Foyer zogen vor allem die Vorträge über 2500 Besucher zur 12. Auflage der Veranstaltung. Der Band vereint den Inhalt von 15 Hauptvorträgen und die Abstrakts von 76 weiteren Beiträgen und stellt damit einen Überblick über das weit gefächerte Programm der Veranstaltung dar. / The Chemnitz Linux Days took place at the campus of the Chemnitz University of Technology. Besides the presentations at the foyer the lectures were first of all attractive for more than 2.500 visitors. This volume contains the content of 15 main lectures and abstracts of 76 further talks and hence gives a survey of the broadly based program of this event.
486

Funkstandardübergreifende Kommunikation in Mobilen Ad Hoc Netzwerken

Vodel, Matthias 23 July 2010 (has links)
Der neunte Band der wissenschaftlichen Schriftenreihe Eingebettete, Selbstorganisierende Systeme widmet sich der funkstandardübergreifenden Kommunikation in Mobilen Ad Hoc Netzwerken. Im Zuge der fortschreitenden, drahtlosen Vernetzung mobiler Endgeräte entstehen immer neue, hochspezialisierte Kommunikationsstandards. Deren Übertragungseigenschaften sind dabei eng an den jeweiligen Anwendungsfokus gebunden. Eine intelligente Verknüpfung der verfügbaren Standards würde die Integrationsmöglichkeiten der Endgeräte deutlich erhöhen. Gleichzeitig bieten sich vielfältige Möglichkeiten, die Kommunikation bezüglich auftretender Latenzen, der Erreichbarkeit und dem Energieverbrauch zu optimieren. Im Rahmen dieser Arbeit stellt Herr Vodel ein generisches Konzept vor, welches eine solche Verknüpfung applikationsunabhängig ermöglicht. Der entwickelte Integrationsansatz nutzt dabei handelsübliche, am Markt verfügbare Funkmodule, welche auf einer hardwarenahen Ebene gekapselt werden. Der Anwendungsfokus liegt speziell im Bereich eingebetteter sowie mobiler, ressourcenbeschränkter Systeme. Für die Umsetzung des Konzeptes werden drei wesentliche Problemstellungen betrachtet. Zunächst muss die grundlegende Initialisierung und Verwaltung der heterogenen, funkstandardübergreifenden Topologie sichergestellt werden. Darauf aufbauend wird eine effiziente Routingstrategie vorgestellt, welche die Vorteile der geschaffenen Netzwerkstruktur in vollem Umfang nutzen kann. Im Zuge eines möglichen Funkstandardwechsels während der Übertragung muss außerdem ein reibungsloser Konvertierungsprozess garantiert werden. Die Evaluierung des vorgestellten Kommunikationskonzeptes erfolgt auf zwei Ebenen. Ein speziell entwickeltes Simulations-Framework ermöglicht weitreichende Testreihen in komplexen Netzwerktopologien. Mit der Entwicklung einer prototypischen Hardware-Plattform können parallel dazu detaillierte Messungen unter Realbedingungen durchgeführt werden. Die Schwerpunkte dieser Arbeit umfassen somit Konzeption, Simulation und praktische Umsetzung eines neuen Kommunikationsansatzes im Bereich mobiler Ad Hoc Netzwerke. Ich freue mich daher, Herrn Vodel für die Veröffentlichung der Ergebnisse seiner Arbeiten in dieser wissenschaftlichen Schriftenreihe gewonnen zu haben, und wünsche allen Lesern einen interessanten Einblick in dieses Themengebiet.
487

Lane Change Prediction in the Urban Area

Griesbach, Karoline 18 July 2019 (has links)
The development of Advanced Driver Assistance Systems and autonomous driving is one of the main research fields in the area of vehicle development today. Initially the research in this area focused on analyzing and predicting driving maneuvers on highways. Nowadays, a vast amount of research focuses on urban areas as well. Driving maneuvers in urban areas are more complex and therefore more difficult to predict than driving maneuvers on highways. The goals of predicting and understanding driving maneuvers are to reduce accidents, to improve traffic density, and to develop reliable algorithms for autonomous driving. Driving behavior during different driving maneuvers such as turning at intersections, emergency braking or lane changes are analyzed. This thesis focuses on the driving behavior around lane changes and thus the prediction of lane changes in the urban area is applied with an Echo State Network. First, existing methods with a special focus on input variables and results were evaluated to derive input variables with regard to lane change and no lane change sequences. The data for this first analyses were obtained from a naturalistic driving study. Based on theses results the final set of variables (steering angle, turn signal and gazes to the left and right) was chosen for further computations. The parameters of the Echo State Network were then optimized using the data of the naturalistic driving study and the final set of variables. Finally, left and right lane changes were predicted. Furthermore, the Echo State Network was compared to a feedforward neural network. The Echo State Network could predict left and right lane changes more successful than the feedforward neural network. / Fahrerassistenzsysteme und Algorithmen zum autonomen Fahren stellen ein aktuelles Forschungsfeld im Bereich der Fahrzeugentwicklung dar. Am Anfang wurden vor allem Fahrmanöver auf der Autobahn analysiert und vorhergesagt, mittlerweile hat sich das Forschungsfeld auch auf den urbanen Verkehr ausgeweitet. Fahrmanöver im urbanen Raum sind komplexer als Fahrmanöver auf Autobahnen und daher schwieriger vorherzusagen. Ziele für die Vorhersage von Fahrmanövern sind die Reduzierung von Verkehrsunfällen, die Verbesserung des Verkehrsflusses und die Entwicklung von zuverlässigen Algorithmen für das autonome Fahren. Um diese Ziele zu erreichen, wird das Fahrverhalten bei unterschiedlichen Fahrmanövern analysiert, wie z.B. beim Abbiegevorgang an Kreuzungen, bei der Notbremsung oder beim Spurwechsel. In dieser Arbeit wird der Spurwechsel im urbanen Straßenverkehr mit einem Echo State Network vorhergesagt. Zuerst wurden existierende Methoden zur Spurwechselvorhersage bezogen auf die Eingaben und die Ergebnisse bewertet, um danach die spurwechselbezogenen Variableneigenschaften bezüglich Spurwechsel- und Nicht-Spurwechselsequenzen zu analysieren. Die Daten, die Basis für diese ersten Untersuchungen waren, stammen aus einer Realfahrstudie. Basierend auf diesen Resultaten wurden die finalen Variablen (Lenkwinkel, Blinker und Blickrichtung) für weitere Berechnungen ausgewählt. Mit den Daten aus der Realfahrstudie und den finalen Variablen wurden die Parameter des Echo State Networks optimiert und letztendlich wurden linke und rechte Spurwechsel vorhergesagt. Zusätzlich wurde das Echo State Network mit einem vorwärtsgerichteten neuronalen Netz verglichen. Das Echo State Network konnte linke und rechte Spurwechsel erfolgreicher vorhersagen als das vorwärtsgerichtete neuronale Netz.
488

Konzepte der internetbasierten Gerätesteuerung

Hoffmann, Gunnar 05 December 2011 (has links)
Auf dem Gebiet der Gerätesteuerung existieren zahlreiche Insellösungen, die den Anspruch nach generischer Eignung nicht erfüllen. In besonderer Weise defizitär ist der Mangel an ganzheitlichen, offenen Frameworks, bei denen die Autokonfiguration, die Gerätezuordenbarkeit vor Ort, die Geräteüberwachbarkeit, die Inter-Gerätekommunikation und die Automatisierbarkeit von Abläufen Berücksichtigung finden. Vor diesem Hintergrund öffnet die Arbeit mit einer Bestandsaufnahme von Technologien, die Einzelanforderungen der generischen Gerätesteuerung erfüllen. Sie bilden im weiteren Verlauf das potentielle Architekturfundament. Der Betrachtungsrahmen wird hierbei soweit ausgedehnt, dass relevante Verfahrensschritte vom Geräteanschluss bis zur automatisierten Generierung von User Interfaces abgedeckt sind. Unter Rückgriff auf ausgewählte Technologien wird ein zweigliedriger Ansatz vorgestellt, der ein sehr breites Spektrum potentieller Steuergeräte unterstützt und gleichzeitig technologieoffen im Hinblick auf die Autogenerierung von User Interfaces ist. Höchstmögliche Funktionalität wird durch die Beschreibungssprache Device XML (DevXML) erreicht, deren Entwicklung einen Schwerpunkt der Arbeit darstellte. In Anlehnung an die etablierte Petrinetztheorie werden Abhängigkeiten zwischen Zuständen und Funktionen formal beschrieben. Das Sprachvokabular von DevXML ermöglicht hierauf aufbauend Regeldefinitionen mit dem Ziel der Ablaufautomatisierung. Das entworfene Framework wurde anhand von insgesamt elf praktischen Beispielen wie z.B. einem Schalter, einem Heizungsmodul, einem Multimeter bis hin zu virtuellen Geräten erfolgreich verifiziert.
489

Improving Deep Learning-based Object Detection Algorithms for Omnidirectional Images by Simulated Data

Scheck, Tobias 08 August 2024 (has links)
Perception, primarily through vision, is a vital human ability that informs decision-making and interactions with the world. Computer Vision, the field dedicated to emulating this human capability in computers, has witnessed transformative progress with the advent of artificial intelligence, particularly neural networks and deep learning. These technologies enable automatic feature learning, eliminating the need for laborious hand-crafted features. The increasing global demand for artificial intelligence applications across various industries, however, raises concerns about data privacy and access. This dissertation addresses these challenges by proposing solutions that leverage synthetic data to preserve privacy and enhance the robustness of computer vision algorithms. The primary objective of this dissertation is to reduce the dependence on real data for modern image processing algorithms by utilizing synthetic data generated through computer simulations. Synthetic data serves as a privacy-preserving alternative, enabling the generation of data in scenarios that are difficult or unsafe to replicate in the real world. While purely simulated data falls short of capturing the full complexity of reality, the dissertation explores methods to bridge the gap between synthetic and real data. The dissertation encompasses a comprehensive evaluation of the synthetic THEODORE dataset, focusing on object detection using Convolutional Neural Networks. Fine-tuning CNN architectures with synthetic data demonstrates remarkable performance improvements over relying solely on real-world data. Extending beyond person recognition, these architectures exhibit the ability to recognize various objects in real-world settings. This work also investigates real-time performance and the impact of barrel distortion in omnidirectional images, underlining the potential of using synthetic data. Furthermore, the dissertation introduces two unsupervised domain adaptation methods tailored for anchorless object detection within the CenterNet architecture. The methods effectively reduce the domain gap when synthetic omnidirectional images serve as the source domain, and real images act as the target domain. Qualitative assessments highlight the advantages of these methods in reducing noise and enhancing detection accuracy. The dissertation concludes with creating an application within the Ambient Assisted Living context to realize the concepts. This application encompasses indoor localization heatmaps, human pose estimation, and activity recognition. The methodology leverages synthetically generated data, unique object identifiers, and rotated bounding boxes to enhance tracking in omnidirectional images. Importantly, the system is designed to operate without compromising privacy or using sensitive images, aligning with the growing concerns of data privacy and access in artificial intelligence applications. / Die Wahrnehmung, insbesondere durch das Sehen, ist eine entscheidende menschliche Fähigkeit, die die Entscheidungsfindung und die Interaktion mit der Welt beeinflusst. Die Computer Vision, das Fachgebiet, das sich der Nachahmung dieser menschlichen Fähigkeit in Computern widmet, hat mit dem Aufkommen künstlicher Intelligenz, insbesondere neuronaler Netzwerke und tiefem Lernen, eine transformative Entwicklung erlebt. Diese Technologien ermöglichen das automatische Erlernen von Merkmalen und beseitigen die Notwendigkeit mühsamer, handgefertigter Merkmale. Die steigende weltweite Nachfrage nach Anwendungen künstlicher Intelligenz in verschiedenen Branchen wirft jedoch Bedenken hinsichtlich des Datenschutzes und des Datenzugriffs auf. Diese Dissertation begegnet diesen Herausforderungen, indem sie Lösungen vorschlägt, die auf synthetischen Daten basieren, um die Privatsphäre zu wahren und die Robustheit von Computer-Vision Algorithmen zu steigern. Das Hauptziel dieser Dissertation besteht darin, die Abhängigkeit von realen Daten für moderne Bildverarbeitungsalgorithmen durch die Verwendung von synthetischen Daten zu reduzieren, die durch Computersimulationen generiert werden. Synthetische Daten dienen als datenschutzfreundliche Alternative und ermöglichen die Generierung von Daten in Szenarien, die schwer oder unsicher in der realen Welt nachzustellen sind. Obwohl rein simulierte Daten die volle Komplexität der Realität nicht erfassen, erforscht die Dissertation Methoden zur Überbrückung der Kluft zwischen synthetischen und realen Daten. Die Dissertation umfasst eine Evaluation des synthetischen THEODORE-Datensatzes mit dem Schwerpunkt auf der Objekterkennung mithilfe von Convolutional Neural Networks. Das Feinabstimmen dieser Architekturen mit synthetischen Daten zeigt bemerkenswerte Leistungssteigerungen im Vergleich zur ausschließlichen Verwendung von realen Daten. Über die Erkennung von Personen hinaus zeigen diese Architekturen die Fähigkeit, verschiedene Objekte in realen Umgebungen zu erkennen. Untersucht wird auch die Echtzeit-Performance und der Einfluss der tonnenförmigen Verzerrung in omnidirektionalen Bildern und betont das Potenzial der Verwendung synthetischer Daten. Darüber hinaus führt die Dissertation zwei nicht überwachte Domänenanpassungsmethoden ein, die speziell für die ankerlose Objekterkennung in der CenterNetArchitektur entwickelt wurden. Die Methoden reduzieren effektiv die Domänenlücke, wenn synthetische omnidirektionale Bilder als Quelldomäne und reale Bilder als Zieldomäne dienen. Qualitative Bewertungen heben die Vorteile dieser Methoden bei der Reduzierung von Störungen und der Verbesserung der Erkennungsgenauigkeit hervor. Die Dissertation schließt mit der Entwicklung einer Anwendung im Kontext von Ambient Assisted Living zur Umsetzung der Konzepte. Diese Anwendung umfasst Innenlokalisierungskarten, die Schätzung der menschlichen Körperhaltung und die Erkennung von Aktivitäten. Die Methodologie nutzt synthetisch generierte Daten, eindeutige Objektidentifikatoren und rotierte Begrenzungsrahmen, um die Verfolgung in omnidirektionalen Bildern zu verbessern. Wichtig ist, dass das System entwickelt wurde, um ohne Beeinträchtigung der Privatsphäre oder Verwendung sensibler Bilder zu arbeiten, was den wachsenden Bedenken hinsichtlich des Datenschutzes und des Zugriffs auf Daten in Anwendungen künstlicher Intelligenz entspricht.
490

Geometrierückführung nach Topologieoptimierung, Rippenoptimierung oder FEM-Verformungsberechnung

Thieme, Cornelia 20 June 2024 (has links)
Topologieoptimierte Geometrie wird vom Konstrukteur in einem Format benötigt, das im CAD verwendet werden kann. Die Herausforderung ist, dass man als Optimierungsergebnis eine STL-Geometrie bekommt, doch fürs CAD soll die Oberfläche möglichst glatt und vereinfacht sein. Die Software MSC Apex erzeugt aus einer STL-Geometrie eine echte, geglättete Parasolid-Geometrie. Eine spezielle Form der Topologieoptimierung ist die Topometrieoptimierung, welche die Rippenstruktur auf einem Blech vorschlägt. Auch hierfür ist Geometrierückführung möglich. Auch stark verformte Bauteile, z.B. Gummiteile, kann man als Geometrie im verformten Zustand ans CAD zurückgeben, um zu sehen, wie sie dann in die Baugruppe passen. / Topology optimized geometry must be provided to the designer in a format that can be used in CAD. The challenge is that the optimization result is typically an STL geometry, but for CAD the surface should be as smooth and simplified as possible. The MSC Apex software creates a real, smoothed parasolid geometry from an STL geometry. A special form of topology optimization is topometry optimization, which suggests the rib structure on a sheet. Reverse engineering is also possible for this. Even heavily deformed components, e.g. rubber parts, can be returned to CAD as geometry in the deformed state, to see how they fit into the assembly in this state.

Page generated in 0.0523 seconds