• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 26
  • 14
  • 1
  • Tagged with
  • 67
  • 59
  • 58
  • 35
  • 35
  • 10
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Semantische Klassifizierung digitaler Oberflächenmodelle von Landschaften in Form von massiven Punktwolken über Hybrid-Verfahren

Kaubukowski, Kenn Joel 04 May 2023 (has links)
Mit der zunehmenden Verfügbarkeit von Technologien zur Aufnahme von digitalen Oberflächenmodellen nimmt auch die Analyse dieser stetig an Bedeutung zu. Über LiDAR Scanner lassen sich genaue Aufnahmen in Form von Ansammlungen von Punkten im dreidimensionalen Raum (Punktwolken) anfertigen und können schließlich visualisiert werden, wodurch gewöhnliche Darstellungen von Landschaften um die dritte Dimension erweitert werden. Durch den Prozess der semantischen Klassifizierung werden diesen Punkten Bedeutungen zugewiesen, was bei weiterer Arbeit mit ihnen schließlich eine isolierte Darstellung und die Verarbeitung einzelner Klassen ermöglicht, sodass eine große Landschaft schneller und effektiver manuell oder automatisch evaluiert werden kann. Aufgrund von variierenden Eigenschaften einzelner Modelle ist die maschinelle semantische Klassifizierung eine Problemstellung, welche jedoch oftmals individuelle Lösungen benötigt. In dieser Arbeit werden diverse Ansätze zur Klassifizierung von Punktwolken beschrieben und anhand der Anwendungsmöglichkeiten eingeschätzt. Schließlich wird ein heuristisches Hybrid-Verfahren vorgestellt, welches im Rahmen des Projekts „SARDINE“ (Smart Regional Development Infrastructure) entstanden ist und eine vollständige semantische Klassifizierung digitaler Oberflächenmodelle ermöglicht.:Einleitung 1.1 Zielsetzung und Motivation 1.2 Aufbau der Arbeit Aktuelle Lösungen und deren Möglichkeiten 2.1 Oberflächenmodelle von Landschaften 2.2 Klassifizierung digitaler Oberflächenmodelle 2.3 Techniken aktueller kommerzieller Software 2.4 Problematik der Klassifizierung mit maschinellem Lernen Entwicklung eines Hybrid-Verfahrens 3.1 Heuristische Parameterwahl 3.2 Vollständige Klassifizierung der Testdaten 3.2.1 Erstellen eines digitalen Geländemodells 3.2.2 Gebäude 3.2.3 Hochspannungsleitungen und Freileitungsmasten 3.2.4 Fahrzeuge und Straßenlaternen 3.2.5 Vegetation 3.2.6 Gewässer 3.2.7 Boden und Straßen 3.2.8 Mauern, Zäune und sonstige linear verlaufende Objekte 3.2.9 Fertigstellung 3.3 Verwendete Sprache, Bibliotheken und Datenstrukturen 3.4 Dynamisierung statischer Parameter 3.5 Maschinelles Lernen Evaluation des Hybrid-Verfahrens 4.1 Analyse der Ergebnisse 4.2 Schwachstellen der Konzepte 4.3 Verbesserungspotential 4.4 Fazit Literaturverzeichnis
2

Klassifizierung von P2P-Anwendungen

Hübner, Uwe 06 June 2002 (has links)
Gemeinsamer Workshop von Universitaetsrechenzentrum und Professur Rechnernetze und verteilte Systeme der Fakultaet fuer Informatik der TU Chemnitz. Grenzen zentralisierter Ansätze, Charakteristika und Anwendungsgebiete für Peer-to-Peer, Probleme und Herausforderungen
3

Entwicklung eines neuronalen Netzwerks als Basis zur automatisierten Holzartenerkennung

Bernöcker, Anton, Leiter, Nina, Wohlschläger, Maximilian, Versen, Martin 27 January 2022 (has links)
Holz ist ein vielseitig einsetzbarer nachwachsender Rohstoff. Neben seinem wirtschaftlichen Nutzen ist er für den Erhalt des Klimas unersetzlich. Eine sortenreine Sortierung für die Weiterverarbeitung von Altholz spielt für einen ressourcenschonenden Umgang eine wichtige Rolle. Um das Potenzial eines neuronalen Netzwerks basierend auf Messdaten der bildgebenden Fluoreszenzabklingzeitmessung für die Altholzsortierung aufzuzeigen, wurden zwei unterschiedliche Klassifikationsansätze auf Basis der Programmiersprache Python gewählt. Die Ergebnisse zeigen, dass die bildbasierte Klassifizierung der Holzart mit einer Genauigkeit von 47,36 % noch ausbaufähig ist. Eine datenbasierte Klassifizierung der Holzart mit einer Identifikationsgenauigkeit von 98,28 % ist dagegen vielversprechend.
4

Erschließung von Altbeständen in allgemeinen Bibliothekskatalogen : Bestandsaufnahmen und Entwicklungsmöglichkeiten

Schwarzendorfer, Hannes 30 October 2008 (has links) (PDF)
Hannes Schwarzendorfer stellte in seinem Vortrag (16.07.12:15) den derzeitigen Stand der inhaltlichen Erschließung von Altbeständen vor. Anhand eines Muster- Altbestandes der UB Eichstätt prüfte er Erschließungsstände in den großen Staatsbibliotheken (Hamburg, Göttingen, Berlin, München … ). Über die Auswertung der Daten aus mehreren Verbund- und Bibliothekskatalogen stellte Schwarzendorfer den Grad der modernen Erschließung hinsichtlich der SWD-Anwendungen und/oder der Klassifikationsverknüpfungen fest. Wichtig sind seine abschließenden Überlegungen zu effektiveren Sacherschließungen der historischen Beständen.
5

DNB aktuell: Klassifikatorische Erschließungen

Lösse, Monika 13 August 2009 (has links) (PDF)
Ein Bericht aus der Nationalbibliothek kann nicht anders als mit großen Zahlen zu operieren. Dr. Lösse berichtet über Arbeiten in der Deutschen Nationalbibliothek unter den Stichworten intern, national und international. Intern: Im Jahr 2008 wurden 80 000 Titel mit DDC klassifiziert. Der Web-Service für DDC "MELVIL" wird aktualisiert. Bis zum Erscheinen der 23. Ausgabe der DDC im Jahr 2010 sind über 10 000 Klassen zu bearbeiten. Neues von DDC national: Im Projekt Criss Cross werden Sachschlagwörter mit DDC Notationen verknüpft; von 150 000 SSW sind 65 000 SSW fertig gestellt, MELVIL wird mit diesen Sachschlagwörtern angereichert und die Notationsrecherche wird damit verbessert. Im übrigen beteiligte sich die DNB an einem – nationalen – Automatisierungstest. Zur automatischen Vergabe von DDC-Notationen zu Titelsätzen lieferte Dr. Ulrike Reiner, Göttingen, eine Programmierung (über die sie bei den Jahrestagungen 2007 und 2008 berichtet hat: <a href="http://archiv.tu-chemnitz.de/pub/2007/0139">http://archiv.tu-chemnitz.de/pub/2007/0139</a> <a href="http://archiv.tu-chemnitz.de/pub/2008/0150">http://archiv.tu-chemnitz.de/pub/2008/0150</a> Die Testanordnung umfaßte jeweils ca. 100 Titel aus den zehn Hauptklassen von DDC. Die Verknüpfungsergebnisse wurden bewertet. Ein erneuter Testlauf ist im Jahr 2009 wieder geplant. In der DNB gibt es Möglichkeiten zur DDC-Fortbildung! Ansprechpartner ist Dr. Bee, Frankfurt/ Main: G.Bee@d-nb.de. Anlässlich des Gedenksymposiums für Frau Magda Heiner-Freiling am 10.4.08 erschien die Gedenkschrift "New Perspectives on Subject Indexing and Classification" mit 34 Beiträgen. Gegen eine Schutzgebühr von 10 Euro kann die Gedenkschrift unter der Adresse a.cremer@d-nb.de bestellt werden. Die Weiterentwicklung von MACS (Multilingual access to subjects) erfolgt unter Leitung und in Zusammenarbeit mit der Schweizerischen Nationalbibliothek unter dem Dach von CENL mit Beteiligung der Französischen, Britischen und Deutschen Nationalbibliothek(en). Ziel ist die Herstellung einer Verbindung zwischen den Sachschlagwörtern der drei Schlagwortnormdateien Rameau, Library of Congress Subject Headings (LCSH) und Schlagwortnormdatei (SWD) zur sachlichen Suche im deutsch-, englisch- und französischsprachigen Raum. Stand: 65 700 Double RAMEAU-LCSH; 20 000 Tripple RAMEAU-LCSH-SWD; im Jahr 2009 ist verstärkte Einbindung der SWD geplant.
6

Planetary mapping tools applied to floor-fractured craters on Mars

Bamberg, Marlene January 2014 (has links)
Planetary research is often user-based and requires considerable skill, time, and effort. Unfortunately, self-defined boundary conditions, definitions, and rules are often not documented or not easy to comprehend due to the complexity of research. This makes a comparison to other studies, or an extension of the already existing research, complicated. Comparisons are often distorted, because results rely on different, not well defined, or even unknown boundary conditions. The purpose of this research is to develop a standardized analysis method for planetary surfaces, which is adaptable to several research topics. The method provides a consistent quality of results. This also includes achieving reliable and comparable results and reducing the time and effort of conducting such studies. A standardized analysis method is provided by automated analysis tools that focus on statistical parameters. Specific key parameters and boundary conditions are defined for the tool application. The analysis relies on a database in which all key parameters are stored. These databases can be easily updated and adapted to various research questions. This increases the flexibility, reproducibility, and comparability of the research. However, the quality of the database and reliability of definitions directly influence the results. To ensure a high quality of results, the rules and definitions need to be well defined and based on previously conducted case studies. The tools then produce parameters, which are obtained by defined geostatistical techniques (measurements, calculations, classifications). The idea of an automated statistical analysis is tested to proof benefits but also potential problems of this method. In this study, I adapt automated tools for floor-fractured craters (FFCs) on Mars. These impact craters show a variety of surface features, occurring in different Martian environments, and having different fracturing origins. They provide a complex morphological and geological field of application. 433 FFCs are classified by the analysis tools due to their fracturing process. Spatial data, environmental context, and crater interior data are analyzed to distinguish between the processes involved in floor fracturing. Related geologic processes, such as glacial and fluvial activity, are too similar to be separately classified by the automated tools. Glacial and fluvial fracturing processes are merged together for the classification. The automated tools provide probability values for each origin model. To guarantee the quality and reliability of the results, classification tools need to achieve an origin probability above 50 %. This analysis method shows that 15 % of the FFCs are fractured by intrusive volcanism, 20 % by tectonic activity, and 43 % by water & ice related processes. In total, 75 % of the FFCs are classified to an origin type. This can be explained by a combination of origin models, superposition or erosion of key parameters, or an unknown fracturing model. Those features have to be manually analyzed in detail. Another possibility would be the improvement of key parameters and rules for the classification. This research shows that it is possible to conduct an automated statistical analysis of morphologic and geologic features based on analysis tools. Analysis tools provide additional information to the user and are therefore considered assistance systems. / Planetenforschung umfasst oft zeitintensive Projekte, bei denen Expertise und Erfahrung eine wesentliche Rolle spielen. Auf Grund äusserst komplexer und sich selten wiederholender Forschungsfragen sind Annahmen, Definitionen und Regeln zur Lösung dieser Fragen nicht leicht nachvollziehbar oder aber nicht eindeutig dokumentiert. Ein Vergleich der Ergebnisse unterschiedlicher Forscher zum selben Thema oder eine Erweiterung der Forschungsfrage macht dies somit nur schwer möglich. Vergleiche liefern oftmals verzerrte Ergebnisse, da die Ausgangslage und Randbedingungen unterschiedlich definiert worden sind. Das Ziel dieser Arbeit ist es eine Standardmethode zur Oberflächenanalyse zu entwickeln, die auf zahlreiche Untersuchungsfragen angewandt werden kann. Eine gleichbleibende Qualität der Ergebnisse muss durch diese Methode gewährleistet sein. Ein weiteres Ziel ist es, dass diese Methode ohne Vorwissen und Expertise angewandt werden kann und die Ergebnisse in kurzer Zeit vorliegen. Ausserdem müssen die Ergebnisse vergleichbar und nachvollziehbar sein. Automatisch operierende Analysewerkzeuge können die zahlreichen Anforderungen erfüllen und als Standardmethode dienen. Statistische Ergebnisse werden durch diese Methode erzielt. Die Werkzeuge basieren auf vordefinierten, geowissenschaftlichen Techniken und umfassen Messungen, Berechnungen und Klassifikationen der zu untersuchenden Oberflächenstrukturen. Für die Anwendung dieser Werkzeuge müssen Schlüsselstrukturen und Randbedingungen definiert werden. Des Weiteren benötigen die Werkzeuge eine Datenbank, in der alle Oberflächenstrukturen, aber auch Informationen zu den Randbedingungen gespeichert sind. Es ist mit geringem Aufwand möglich, Datenbanken zu aktualisieren und sie auf verschiedenste Fragestellungen zu adaptieren. Diese Tatsache steigert die Flexibilität, Reproduzierbarkeit und auch Vergleichbarkeit der Untersuchung. Die vordefinierten Randbedingungen und die Qualität der Datenbank haben jedoch auch direkten Einfluss auf die Qualität der Ergebnisse. Um eine gleichbleibend hohe Qualität der Untersuchung zu gewährleisten muss sichergestellt werden, dass alle vordefinierten Bedingungen eindeutig sind und auf vorheriger Forschung basieren. Die automatisch operierenden Analysewerkzeuge müssen als mögliche Standardmethode getestet werden. Hierbei geht es darum Vorteile, aber auch Nachteile zu identifizieren und zu bewerten. In dieser Arbeit werden die Analysewerkzeuge auf einen bestimmten Einschlagskratertyp auf dem Mars angewandt. Krater mit zerbrochenen Kraterböden (Floor-Fractured Craters) sind in verschiedensten Regionen auf dem Mars zu finden, sie zeigen zahlreiche Oberflächenstrukturen und wurden durch unterschiedliche Prozesse geformt. All diese Fakten machen diesen Kratertyp zu einem interessanten und im geologischen und morphologischen Sinne sehr komplexen Anwendungsgebiet. 433 Krater sind durch die Werkzeuge analysiert und je nach Entstehungsprozess klassifiziert worden. Für diese Analyse sind Position der Krater, Art des Umfeldes und Strukturen im Kraterinneren ausschlaggebend. Die kombinierten Informationen geben somit Auskunft über die Prozesse, welche zum Zerbrechen des Kraterbodens geführt haben. Die entwickelten Analysewerkzeuge können geologische Prozesse, die sehr ähnlich zueinander sind, von einander abhängig sind und zusätzlich auch dieselben Oberflächenstrukturen formen, nicht eindeutig unterscheiden. Aus diesem Grund sind fluviale und glaziale Entstehungsprozesse für den untersuchten Kratertyp zusammengefasst. Die Analysewerkzeuge liefern Wahrscheinlichkeitswerte für drei mögliche Entstehungsarten. Um die Qualität der Ergebnisse zu verbessern muss eine Wahrscheinlichkeit über 50 % erreicht werden. Die Werkzeuge zeigen, dass 15 % der Krater durch Vulkanismus, 20 % durch Tektonik und 43 % durch Wasser- und Eis-bedingte Prozesse gebildet wurden. Insgesamt kann für 75 % des untersuchten Kratertyps ein potentieller Entstehungsprozess zugeordnet werden. Für 25 % der Krater ist eine Klassifizierung nicht möglich. Dies kann durch eine Kombination von geologischen Prozessen, einer Überprägung von wichtigen Schlüsselstrukturen, oder eines bisher nicht berücksichtigten Prozesses erklärt werden. Zusammenfassend ist zu sagen, dass es möglich ist planetare Oberflächenstrukturen quantitativ durch automatisch operierende Analysewerkzeuge zu erfassen und hinsichtlich einer definierten Fragestellung zu klassifizieren. Zusätzliche Informationen können durch die entwickelten Werkzeuge erhalten werden, daher sind sie als Assistenzsystem zu betrachten.
7

Klassifizierung von P2P-Anwendungen

Hübner, Uwe 06 June 2002 (has links)
Gemeinsamer Workshop von Universitaetsrechenzentrum und Professur Rechnernetze und verteilte Systeme der Fakultaet fuer Informatik der TU Chemnitz. Grenzen zentralisierter Ansätze, Charakteristika und Anwendungsgebiete für Peer-to-Peer, Probleme und Herausforderungen
8

Archivbildung im Tanz aus der Sicht des Archivars

Sebillotte, Laurent 21 June 2016 (has links)
Das Material des Archivars im Tanz ist nicht jenes Flüchtige der Bewegung, das sich allem Wunsch nach Re-Präsentation widersetzt, sondern jene materiellen Spuren, die absichtlich oder unabsichtlich hinterlassen werden und ohne die es keine immaterielle Dauer und auch keinen Gedächtniswert gäbe. Am Beispiel der Archivsammlungen des französischen Centre national de la danse beschreibt der Beitrag Ordnungskriterien, Klassifizierungsmodelle und historische Kontexte, die bei der Erschließung tanzrelevanter Dokumente entwickelt worden sind.
9

Workflows für Bilddaten und Big Data Analytics – Das Potenzial von Sentinel- 2-Daten zur Baumartenklassifizierung

Brandmeier, Melanie, Wessel, Mathias 22 May 2018 (has links)
In diesem Beitrag werden erste Ergebnisse eines Forschungsprojekts zur akkuraten Klassifikation von Baumarten anhand von Sentinel-2-Daten vorgestellt. Basierend auf der ArcGIS-Plattform wird über Rasterfunktionsketten ein optimaler Workflow erstellt, um einzelne Baumarten hierarchisch zu klassifizieren und die Übertragbarkeit auf ein anderes Gebiet zu testen. Dieser Workflow kann dann über den ArcGIS-Image-Server auf große Datenmengen angewendet werden. Sowohl klassisch als auch multitemporal wurden verschiedene Bandkombinationen, Vegetationsindizes und Hauptkomponenten in pixel- vs. objektbasierten Klassifikationsansätzen verglichen. Als Klassifikatoren wurden zwei Machine-Learning-Algorithmen gewählt: ein Support Vector Machine Classifier (SVM) und ein Random Trees Classifier (RTC). Die besten Ergebnisse wurden über einen objektbasierten, hierarchischen Ansatz erzielt. Laub- und Nadelwälder wurden zunächst mit einer Gesamtgenauigkeit von 97,2 % über eine multitemporale, objektbasierte Klassifikation, basierend auf Kanal 8, erreicht. Ähnliche Genauigkeiten lieferte auch die SVM-Klassifikation, basierend auf den vier Hauptkomponenten der Augustszene mit vorangestellter Segmentierung der Maiszene. Eine anschließende Klassifikation der Laubbäume zwischen Buche, Eiche und restlichen Laubbäumen erzielte in einem multitemporalen Ansatz eine Gesamtgenauigkeit von 91 %. Es wurde an einer Szene im Mai, basierend auf den Kanälen 8,3 und 2, segmentiert und dann an den Hauptkomponenten 1 bis 12 der Augustszene über einen SVM-Algorithmus klassifiziert. Diese vorläufigen Ergebnisse sind vor dem Hintergrund der mittleren räumlichen Auflösung der Sentinel-2-Daten als sehr vielversprechend zu bewerten. Weitere Ziele des Projekts liegen in der Klassifikation einzelner Nadelbaumarten und in einer Übertragbarkeitsstudie auf ein zweites Gebiet.
10

Fuzzy-Set Veränderungsanalyse für hochauflösende Fernerkundungsdaten

Tufte, Lars 07 April 2006 (has links)
Die Fernerkundung ist eine wichtige Quelle für aktuelle und qualitativ hochwertige Geodaten bzw. für die Aktualisierung von vorhandenen Geodaten. Die Entwicklung von neuen flugzeug- und satellitengestützten digitalen Sensoren in den letzten Jahren hat diese Bedeutung noch erhöht. Die Sensoren erschließen aufgrund ihrer verbesserten räumlichen und radiometrischen Auflösung und der vollständig digitalen Verarbeitungskette neue Anwendungsfelder. Klassische Auswerteverfahren stoßen bei der Analyse der Daten häufig an ihre Grenzen. Die in dieser Arbeit vorgestellte multiskalige objektklassen-spezifische Analyse stellt hier ein sehr gut geeignetes Verfahren dar, welches gute Ergebnisse liefert. Die Klassifizierung der Daten erfolgt mittels eines Fuzzy- Klassifizierungsverfahrens, welches Vorteile in der Genauigkeit und Interpretierbarkeit der Ergebnisse liefert. Die thematische Genauigkeit (Datenqualität) der Fuzzy-Klassifizierung ist von entscheidender Bedeutung für die Akzeptanz der Ergebnisse und ihre weitere Nutzung. Hier wurden Methoden zur räumlich differenzierten Ermittlung und Visualisierung der thematischen Genauigkeit entwickelt.Außerdem wurde die Methode der segmentbasierten Fuzzy-Logic Veränderungsanalyse (SFLV) entwickelt. Die Methode ermöglicht die Veränderungsanalyse von sehr bis ultra hoch aufgelösten Fernerkundungsdaten mit einer differenzierten Aussage zu den eingetretenen Veränderungen. Sie basiert auf den Standard Operationen für unscharfe Mengen und nutzt die Ergebnisse der entwickelten Methode zur Analyse hochauflösender Fernerkundungsdaten. Die SFLV liefert einen deutlichen Mehrwert zu dem klassischen Vergleich zweier Klassifizierungsergebnisse, indem sich differenzierte Aussagen über mögliche Veränderungen machen lassen. Die Anwendbarkeit der SFLV wurde erfolgreich an einem kleinen Untersuchungsgebiet auf der Elbinsel Pagensand beispielhaft für Veränderungsanalyse von Biotoptypen auf der Grundlage von HRSC-A Daten aufgezeigt.

Page generated in 0.0628 seconds