• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 210
  • 73
  • 14
  • 2
  • Tagged with
  • 298
  • 298
  • 206
  • 184
  • 175
  • 131
  • 121
  • 121
  • 60
  • 36
  • 34
  • 30
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Algorithmen zur automatisierten Dokumentation und Klassifikation archäologischer Gefäße

Hörr, Christian 23 June 2011 (has links)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Algorithmen und Methoden mit dem Ziel, Archäologen bei der täglichen wissenschaftlichen Arbeit zu unterstützen. Im Teil I werden Ideen präsentiert, mit denen sich die extrem zeitintensive und stellenweise stupide Funddokumentation beschleunigen lässt. Es wird argumentiert, dass das dreidimensionale Erfassen der Fundobjekte mittels Laser- oder Streifenlichtscannern trotz hoher Anschaffungskosten wirtschaftlich und vor allem qualitativ attraktiv ist. Mithilfe von nicht fotorealistischen Visualisierungstechniken können dann wieder aussagekräftige, aber dennoch objektive Bilder generiert werden. Außerdem ist speziell für Gefäße eine vollautomatische und umfassende Merkmalserhebung möglich. Im II. Teil gehen wir auf das Problem der automatisierten Gefäßklassifikation ein. Nach einer theoretischen Betrachtung des Typbegriffs in der Archäologie präsentieren wir eine Methodologie, in der Verfahren sowohl aus dem Bereich des unüberwachten als auch des überwachten Lernens zum Einsatz kommen. Besonders die letzteren haben sich dabei als überaus praktikabel erwiesen, um einerseits unbekanntes Material einer bestehenden Typologie zuzuordnen, andererseits aber auch die Struktur der Typologie selbst kritisch zu hinterfragen. Sämtliche Untersuchungen haben wir beispielhaft an den bronzezeitlichen Gräberfeldern von Kötitz, Altlommatzsch (beide Lkr. Meißen), Niederkaina (Lkr. Bautzen) und Tornow (Lkr. Oberspreewald-Lausitz) durchgeführt und waren schließlich sogar in der Lage, archäologisch relevante Zusammenhänge zwischen diesen Fundkomplexen herzustellen. / The topic of the dissertation at hand is the development of algorithms and methods aiming at supporting the daily scientific work of archaeologists. Part I covers ideas for accelerating the extremely time-consuming and often tedious documentation of finds. It is argued that digitizing the objects with 3D laser or structured light scanners is economically reasonable and above all of high quality, even though those systems are still quite expensive. Using advanced non-photorealistic visualization techniques, meaningful but at the same time objective pictures can be generated from the virtual models. Moreover, specifically for vessels a fully-automatic and comprehensive feature extraction is possible. In Part II, we deal with the problem of automated vessel classification. After a theoretical consideration of the type concept in archaeology we present a methodology, which employs approaches from the fields of both unsupervised and supervised machine learning. Particularly the latter have proven to be very valuable in order to assign unknown entities to an already existing typology, but also to challenge the typology structure itself. All the analyses have been exemplified by the Bronze Age cemeteries of Kötitz, Altlommatzsch (both district of Meißen), Niederkaina (district of Bautzen), and Tornow (district Oberspreewald-Lausitz). Finally, we were even able to discover archaeologically relevant relationships between these sites.
282

Automatische Erkennung von Gebäudetypen auf Grundlage von Geobasisdaten

Hecht, Robert January 2013 (has links)
Für die kleinräumige Modellierung und Analyse von Prozessen im Siedlungsraum spielen gebäudebasierte Informationen eine zentrale Rolle. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung werden die Gebäude in ihrem Grundriss modelliert. Semantische Informationen zur Gebäudefunktion, der Wohnform oder dem Baualter sind in den Geobasisdaten nur selten gegeben. In diesem Beitrag wird eine Methode zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt mit dem Ziel, diese für die Ableitung kleinräumiger Informationen zur Siedlungsstruktur zu nutzen. Dabei kommen Methoden der Mustererkennung und des maschinellen Lernens zum Einsatz. Im Kern werden Gebäudetypologie, Eingangsdaten, Merkmalsgewinnung sowie verschiedene Klassifikationsverfahren hinsichtlich ihrer Genauigkeit und Generalisierungsfähigkeit untersucht. Der Ensemble-basierte Random-Forest-Algorithmus zeigt im Vergleich zu 15 weiteren Lernverfahren die höchste Generalisierungsfähigkeit und Effizienz und wurde als bester Klassifikator zur Lösung der Aufgabenstellung identifiziert. Für Gebäudegrundrisse im Vektormodell, speziell den Gebäuden aus der ALK, dem ALKIS® oder dem ATKIS® Basis-DLM sowie den amtlichen Hausumringen und 3D-Gebäudemodellen, kann mit dem Klassifikator für alle städtischen Gebiete eine Klassifikationsgenauigkeit zwischen 90 % und 95 % erreicht werden. Die Genauigkeit bei Nutzung von Gebäudegrundrissen extrahiert aus digitalen topographischen Rasterkarten ist mit 76 % bis 88 % deutlich geringer. Die automatische Klassifizierung von Gebäudegrundrissen leistet einen wichtigen Beitrag zur Gewinnung von Informationen für die kleinräumige Beschreibung der Siedlungsstruktur. Neben der Relevanz in den Forschungs- und Anwendungsfeldern der Stadtgeographie und Stadtplanung sind die Ergebnisse auch für die kartographischen Arbeitsfelder der Kartengeneralisierung, der automatisierten Kartenerstellung sowie verschiedenen Arbeitsfeldern der Geovisualisierung relevant.
283

Zur Beziehung von Raum und Inhalt nutzergenerierter geographischer Informationen

Hahmann, Stefan 12 June 2014 (has links)
In the last ten years there has been a significant progress of the World Wide Web, which evolved to become the so-called “Web 2.0”. The most important feature of this new quality of the WWW is the participation of the users in generating contents. This trend facilitates the formation of user communities which collaborate on diverse projects, where they collect and publish information. Prominent examples of such projects are the online-encyclopedia “Wikipedia”, the microblogging-platform “Twitter”, the photo-platform “Flickr” and the database of topographic information “OpenStreetMap”. User-generated content, which is directly or indirectly geospatially referenced, is of-ten termed more specifically as “volunteered geographic information”. The geospatial reference of this information is constituted either directly by coordinates that are given as meta-information or indirectly through georeferencing of toponyms or addresses that are contained in this information. Volunteered geographic information is particularly suited for research, as it can be accessed with low or even at no costs at all. Furthermore it reflects a variety of human decisions which are linked to geographic space. In this thesis, the relationship of space and content of volunteered geographic information is investigated from two different perspectives. The first part of this thesis addresses the question for which share of information there exists a relationship between space and content of the information, such that the information is locatable in geospace. In this context, the assumption that about 80% of all information has a reference to space has been well known within the community of geographic information system users. Since the 1980s it has served as a marketing tool within the whole geoinformation sector, although there has not been any empirical evidence. This thesis contributes to fill this research gap. For the validation of the ‘80%-hypothesis’ two approaches are presented. The first approach is based on a corpus of information that is as representative as possible for world knowledge. For this purpose the German language edition of Wikipedia has been selected. This corpus is modeled as a network of information where the articles are considered the nodes and the cross references are considered the edges of a directed graph. With the help of this network a graduated definition of geospatial references is possible. It is implemented by computing the distance of each article to its closest article within the network that is assigned with spatial coordinates. Parallel to this, a survey-based approach is developed where participants have the task to assign pieces of information to one of the categories “direct geospatial reference”, “indirect geospatial reference” and “no geospatial reference”. A synthesis of both approaches leads to an empirically justified figure for the “80%-assertion”. The result of the investigation is that for the corpus of Wikipedia 27% of the information may be categorized as directly geospatially referenced and 30% of the information may be categorized as indirectly geospatially referenced. In the second part of the thesis the question is investigated in how far volunteered geographic information that is produced on mobile devices is related to the locations where it is published. For this purpose, a collection of microblogging-texts produced on mobile devices serve as research corpus. Microblogging-texts are short texts that are published via the World Wide Web. For this type of information the relationship be-tween the content of the information and their position is less obvious than e.g. for topographic information or photo descriptions. The analysis of microblogging-texts offers new possibilities for market and opinion research, the monitoring of natural events and human activities as well as for decision support in disaster management. The spatial analysis of the texts may add extra value. In fact for some of the applications the spatial analysis is a necessary condition. For this reason, the investigation of the relationship of the published contents with the locations where they are generated is of interest. Within this thesis, methods are described that support the investigation of this relationship. In the presented approach, classified Points of Interest serve as a model for the environment. For the purpose of the investigation of the correlation between these points and the microblogging-texts, manual classification and natural language processing are used in order to classify these texts according to their relevance in regard to the respective feature classes. Subsequently, it is tested whether the share of relevant texts in the proximity of objects of the tested classes is above average. The results of the investigation show that the strength of the location-content-correlation depends on the tested feature class. While for the feature classes ‘train station’, ‘airport’ and ‘restaurant’ a significant dependency of the share of relevant texts on the distance to the respective objects may be observed, this is not confirmed for objects of other feature classes, such as ‘cinema’ and ‘supermarket’. However, as prior research that describes investigations on small cartographic scale has detected correlations between space and content of microblogging-texts, it can be concluded that the strength of the correlation between space and content of microblogging-texts depends on scale and topic.:1 Einleitung 1 1.1 Motivation 1 1.1.1 Bedeutung raumbezogener nutzergenerierter Inhalte für die geographische Informationswissenschaft und die Kartographie 1 1.1.2 Die Raumbezugshypothese 3 1.1.3 Die Korrelation von Ort und Inhalt bei nutzergenerierten Inhalten 4 1.2 Forschungsziele und Forschungsfragen 5 1.2.1 Prüfung der Raumbezugshypothese 5 1.2.2 Untersuchung der Korrelation von Ort und Inhalt von nutzergenerierten Inhalten 6 1.3 Aufbau der Arbeit 7 1.3.1 Die Beziehung zwischen Raum und Inhalt von nutzergenerierten geographischen Informationen 7 1.3.2 Gliederung der Arbeit 7 1.3.3 Verwendete Publikationen 8 2 Forschungsstand 11 2.1 Relevante Begriffe 11 2.1.1 Web 2.0 11 2.1.2 User Generated Content / Nutzergenerierte Inhalte 12 2.1.2.1 Bedeutung und Begriffsherkunft 12 2.1.2.2 Begriffsklärung 12 2.1.2.3 Arten von UGC 13 2.1.2.4 Kritik 14 2.1.2.5 Forschungspotential 14 2.1.3 Raumbezug 14 2.1.3.1 Der Begriff ‚Raumbezug‘ in der Fachliteratur 14 2.1.3.2 Kategorien des Georaumbezuges 16 2.1.4 Georäumlich 16 2.1.5 Geographische Information und Geodaten 17 2.1.5.1 Begriffsklärung 17 2.1.5.2 Points of Interest als Spezialfall 19 2.1.6 Volunteered Geographic Information / Nutzergenerierte geographische Informationen 19 2.1.6.1 Begriffsherkunft und Charakteristika von VGI 19 2.1.6.2 Das Konzept der menschlichen Sensoren 20 2.1.6.3 Kommunikation geographischer Informationen bei VGI 21 2.1.6.4 Der Mehrwert von VGI 21 2.1.6.5 Motive der Beitragenden 22 2.1.6.6 VGI im globalen Kontext 22 2.1.6.7 Erfassung der Informationen: partizipativ vs. opportunistisch 23 2.1.6.8 Formale Definition 23 2.1.6.9 Deutsche Entsprechung des Begriffs 24 2.1.7 Semantik nutzergenerierter geographischer Informationen 25 2.1.7.1 Strukturierte Form 25 2.1.7.2 Unstrukturierte Form 26 2.2 Arten nutzergenerierter geographischer Informationen 26 2.2.1 Topographische Informationen – OpenStreetMap 28 2.2.1.1 Korpusbeschreibung 28 2.2.1.2 Forschungsüberblick 30 2.2.1.3 Raumbezug 32 2.2.2 Enzyklopädische Informationen – Wikipedia 34 2.2.2.1 Korpusbeschreibung 34 2.2.2.2 Forschungsüberblick 35 2.2.2.3 Raumbezug 36 2.2.2.4 Metaeigenschaften von Artikeln der deutschen Wikipedia 37 2.2.3 Microblogging-Texte – Twitter 39 2.2.3.1 Korpusbeschreibung 39 2.2.3.2 Forschungsüberblick 41 2.2.3.3 Raumbezug 42 2.2.4 Bilder und Bildmetainformationen – Flickr, Instagram, Picasa, Panoramio, Geograph 43 2.2.4.1 Korpusbeschreibung 43 2.2.4.2 Forschungsüberblick 45 2.3 Informationen und Netzwerke 46 2.3.1 Beispiele für Netzwerkstrukturen 46 2.3.2 Implikationen vernetzter Informationen für die Raumbezugshypothese 47 2.3.3 Netzwerkeigenschaften der Wikipedia 47 2.4 Geographische Informationen und Kognition 49 2.5 Informationen klassifizieren durch maschinelle Sprachverarbeitung 50 2.5.1 Naive Bayes 51 2.5.2 Maximum Entropy 51 2.5.3 Support Vector Machines 52 3 Methoden und Ergebnisse 53 3.1 Korpusanalytischer Ansatz für die Prüfung der Raumbezugshypothese 53 3.1.1 Netzwerkgrad des Georaumbezuges 53 3.1.2 Datenprozessierung 56 3.1.3 Ergebnisse der NGGR-Berechnung 57 3.1.4 Korrelation zwischen NGGR und den Eigenschaften von Wikipedia-Artikeln 60 3.2 Befragungsansatz für die Prüfung der Raumbezugshypothese 65 3.2.1 Kategorisierungsaufgabe zur Untersuchung des Georaumbezuges 65 3.2.1.1 Material 66 3.2.1.2 Prozedur 66 3.2.1.3 Teilnehmer 67 3.2.2 Hypothesen 68 3.2.3 Daten zur Beteiligung an der Befragung 68 3.2.4 Ergebnisse 70 3.3 Synthese von korpusanalytischem Ansatz und Befragungsansatz für die Prüfung der Raumbezugshypothese 71 3.3.1 Methodik 71 3.3.2 Ergebnisse 72 3.3.3 Einfluss des Faktors Wissen auf die Ergebnisse der Befragung 73 3.3.4 Einfluss des fachlichen Hintergrundes auf die Ergebnisse der Befragung 74 3.3.5 Prädiktion des Anteils raumbezogener Informationen für das gesamte Korpus der deutschen Wikipedia 76 3.4 Klassifikation nutzergenerierter geographischer Informationen hinsichtlich der Korrelation Ort-Inhalt am Beispiel von mobil verfassten Microblogging-Texten 77 3.4.1 Manuelle Textklassifikation 78 3.4.2 Überwachte maschinelle Textklassifikation mit manuell klassifizierten Trainingsdaten 80 3.4.2.1 Vorverarbeitung der Microblogging-Texte 81 3.4.2.2 Evaluation der Ergebnisse der maschinellen Textklassifikation 82 3.4.2.3 Tuning der maschinellen Klassifikation 83 3.4.3 Überwachte maschinelle Textklassifikation mit lexikalischen Trainingsdaten 83 3.4.4 Verwendete Daten 86 3.4.4.1 Aufzeichnung von mobilen Microblogging-Texten mit der Twitter-Streaming-API 86 3.4.4.2 Filterung verwendbarer Microblogging-Texte 87 3.4.4.3 Zeitliche und räumliche Muster der Microblogging-Texte 89 3.4.4.4 Verwendete Points of Interest 91 3.4.5 Ergebnisse 92 3.4.5.1 Manuelle Annotation von Texten 92 3.4.5.2 Überwachte maschinelle Klassifikation von Texten mit manuell klassifizierten Trainingsdaten 95 3.4.5.3 Überwachte maschinelle Klassifikation von Texten mit lexikalischen Trainingsdaten 99 3.5 Bestimmung der Entfernungsabhängigkeit des Anteils von für spezifische Orte relevanten Informationen am Beispiel von mobil verfassten Microblogging-Texten 103 3.5.1 Methodik 103 3.5.2 Ergebnisse 104 4 Diskussion 111 4.1 Methoden zur Prüfung der Raumbezugshypothese am Beispiel des Korpus Wikipedia 111 4.1.1 Wahl des Korpus 111 4.1.2 Abstraktes Konzept und Instanz 112 4.1.3 Korpusanalytischer Ansatz 112 4.1.4 Befragungsansatz 114 4.2 Methoden zur Bestimmung der Korrelation Ort-Inhalt von nutzergenerierten Informationen am Beispiel von mobil erzeugten Microblogging-Texten 115 4.2.1 Manuelle Klassifikation 116 4.2.2 Überwachte maschinelle Klassifikation mit manuell klassifizierten Trainingsdaten 117 4.2.3 Unüberwachte maschinelle Klassifikation mit lexikalischen Trainingsdaten 118 4.2.4 Berechnung der Entfernungsabhängigkeit des Anteils ortsbezogener Texte 119 4.2.5 Points of Interest als Modell für den räumlichen Kontext 120 4.3 Der Begriff ‚Raumbezug‘ im Kontext von nutzergenerierten geographischen Informationen 120 5 Schlussfolgerungen und Forschungsausblick 123 5.1 Beantwortung der Forschungsfragen 123 5.1.1 Zur Überprüfung der Raumbezugshypothese 123 5.1.2 Zur Korrelation von Ort und Inhalt von nutzergenerierten geographischen Informationen 125 5.2 Implikationen der Forschungsergebnisse 128 5.3 Forschungsausblick nutzergenerierte geographische Informationen 130 5.3.1 Qualität von VGI 130 5.3.2 Synthese von VGI mit amtlichen Daten 132 5.3.3 Weitere aktuelle Entwicklungen im Bereich VGI-Forschung 132 6 Literaturverzeichnis 135 7 Anhang 151 Anhang A Dokumentation des „Experiments Geoaumbezug“ 152 Anhang B Ergebnisse der Kategorisierungsaufgabe des „Experiments Georaumbezug“ 157 Anhang C Rückmeldungen der Teilnehmer des „Experiments Georaumbezug“ 163 Anhang D Einfluss der Faktoren fachlicher Hintergrund und Wissen auf die Kategorisierung von Begriffen hinsichtlich ihrer Georäumlichkeit 166 Anhang E Ergebnisse der manuellen Klassifikation der Microblogging-Texte 168 Anhang F Klassifikationsmodelle resultierend aus manuellen und lexikalischen Trainingsdaten 177 Anhang G Forschungsdaten-Anhang 181 / Während der vergangenen zehn Jahre vollzog sich eine signifikante Veränderung des World Wide Webs, das sich zum sogenannten „Web 2.0“ entwickelte. Das wesentlichste Merkmal dieser neuen Qualität des WWW ist die Beteiligung der Nutzer bei der Erstellung der Inhalte. Diese Entwicklung fördert das Entstehen von Nutzergemeinschaften, die kollaborativ in unterschiedlichsten Projekten Informationen sammeln und veröffentlichen. Prominente Beispiele für solche Projekte sind die Online-Enzyklopädie „Wikipedia“, die Microblogging-Plattform „Twitter“, die Foto-Plattform „Flickr“ und die Sammlung topographischer Informationen „OpenStreetMap“. Nutzergenerierte Inhalte, die direkt oder indirekt raumbezogen sind, können spezifischer als „nutzergenerierte geographische Informationen“ bezeichnet werden. Der Raumbezug dieser Informationen entsteht entweder direkt durch die Angabe räumlicher Koordinaten als Metainformationen oder er kann indirekt durch die Georeferenzierung von in den Informationen enthaltenen Toponymen oder Adressen hergestellt werden. Nutzergenerierte geographische Informationen haben für die Forschung den besonderen Vorteil, dass sie einerseits häufig gänzlich ohne oder nur mit geringen Kosten verfügbar gemacht werden können und andererseits eine Vielzahl von menschlichen Entscheidungen widerspiegeln, die mit dem Raum verknüpft sind. In der vorliegenden Dissertation wird die Beziehung von Raum und Inhalt nutzergenerierter geographischer Informationen aus zwei Perspektiven untersucht. Im ersten Teil der Arbeit steht die Frage im Vordergrund, für welchen Anteil an Informationen eine Beziehung zwischen Raum und Informationsinhalt in der Art besteht, dass die Informationen im Georaum lokalisierbar sind. In diesem Zusammenhang existiert seit den 1980er Jahren die unter Nutzern von geographischen Informationssystemen weit verbreitete These, dass 80% aller Informationen einen Raumbezug haben. Diese These dient im gesamten Spektrum der Branche als Marketinginstrument, ist jedoch nicht empirisch belegt. Diese Arbeit trägt dazu bei, die bestehende Forschungslücke zu schließen. Für die Prüfung dieser These, die in der Arbeit als „Raumbezugshypothese“ bezeichnet wird, werden zwei Ansätze vorgestellt. Der erste Ansatz basiert auf der Analyse eines möglichst repräsentativen Informationskorpus, wofür die deutsche Sprachversion der Wikipedia ausgewählt wird. Diese wird als Informationsnetzwerk modelliert, indem deren Artikel als Knoten und deren interne Querverweise als Kanten eines gerichteten Graphen betrachtet werden. Mit Hilfe dieses Netzwerkes ist es möglich eine abgestufte Definition des Raumbezuges von Informationen einzuführen, indem die Entfernung jedes Artikels innerhalb des Netzwerkes zum jeweils nächstgelegenen Artikel, der mit räumlichen Koordinaten gekennzeichnet ist, berechnet wird. Parallel dazu wird ein Befragungsansatz entwickelt, bei dem Probanden die Aufgabe haben, Informationen in die Kategorien „Direkter Raumbezug“, „Indirekter Raumbezug“ und „Kein Raumbezug“ einzuordnen. Die Synthese beider Ansätze führt zu einer empirisch begründeten Zahl für die „Raumbezugsthese“. Das Ergebnis ist, dass für das Untersuchungskorpus Wikipedia 27% der Informationen als direkt raumbezogenen und 30% der Informationen als indirekt raumbezogen kategorisiert werden können. Im zweiten Teil der Arbeit wird die Forschungsfrage untersucht, inwiefern nutzergenerierte Informationen, die über mobile Geräte erzeugt werden, in Beziehung zu den Orten stehen, an denen sie veröffentlicht werden. Als Forschungskorpus dienen mobil verfasste Microblogging-Texte. Dies sind kurze Texte, die über das WWW veröffentlicht werden. Bei dieser Informationsart liegt im Gegensatz zu beispielsweise topographischen Information oder Fotobeschreibungen die Vermutung eines starken Zusammenhanges zwischen dem Inhalt der Informationen und deren Positionen nicht nahe. Die Analyse von Microblogging-Texten bietet unter anderem Potential für die Markt- und Meinungsforschung, die Beobachtung von Naturereignissen und menschlichen Aktivitäten sowie die Entscheidungsunterstützung in Katastrophenfällen. Aus der räumlichen Auswertung kann sich dabei ein Mehrwert ergeben, für einen Teil der Anwendungen ist die räumliche Auswertung sogar die notwendige Voraussetzung. Aus diesem Grund ist die Erforschung des Zusammenhanges der veröffentlichten Inhalte mit den Orten, an denen diese entstehen, von Interesse. In der Arbeit werden eine Methoden vorgestellt, mit deren Hilfe die Untersuchung dieser Korrelation am Beispiel von klassifizierten Points of Interest durchgeführt wird. Zu diesem Zweck werden die Texte mit Hilfe von manueller Klassifikation und maschineller Sprachverarbeitung entsprechend ihrer Relevanz für die getesteten Objektklassen klassifiziert. Anschließend wird geprüft, ob der Anteil der relevanten Texte in der Nähe von Objekten der getesteten Klassen überdurchschnittlich hoch ist. Die Ergebnisse der Untersuchungen zeigen, dass die Stärke der Raum-Inhalt-Korrelation von den getesteten Objektklassen abhängig ist. Während sich beispielsweise bei Bahnhöfen, Flughäfen und Restaurants eine deutliche Abhängigkeit des Anteils der relevanten Texte von der Entfernung zu den betreffenden Objekten zeigt, kann dies für andere Objektklassen, wie z.B. Kino oder Supermarkt nicht bestätigt werden. Da frühere Forschungsarbeiten bei der Analyse im kleinmaßstäbigen Bereich eine Korrelation der Informationsinhalte mit deren Entstehungsorten feststellten, kann geschlussfolgert werden, dass der Zusammenhang zwischen Raum und Inhalt bei Microblogging-Texten sowohl vom Maßstab als auch vom Thema abhängig ist.:1 Einleitung 1 1.1 Motivation 1 1.1.1 Bedeutung raumbezogener nutzergenerierter Inhalte für die geographische Informationswissenschaft und die Kartographie 1 1.1.2 Die Raumbezugshypothese 3 1.1.3 Die Korrelation von Ort und Inhalt bei nutzergenerierten Inhalten 4 1.2 Forschungsziele und Forschungsfragen 5 1.2.1 Prüfung der Raumbezugshypothese 5 1.2.2 Untersuchung der Korrelation von Ort und Inhalt von nutzergenerierten Inhalten 6 1.3 Aufbau der Arbeit 7 1.3.1 Die Beziehung zwischen Raum und Inhalt von nutzergenerierten geographischen Informationen 7 1.3.2 Gliederung der Arbeit 7 1.3.3 Verwendete Publikationen 8 2 Forschungsstand 11 2.1 Relevante Begriffe 11 2.1.1 Web 2.0 11 2.1.2 User Generated Content / Nutzergenerierte Inhalte 12 2.1.2.1 Bedeutung und Begriffsherkunft 12 2.1.2.2 Begriffsklärung 12 2.1.2.3 Arten von UGC 13 2.1.2.4 Kritik 14 2.1.2.5 Forschungspotential 14 2.1.3 Raumbezug 14 2.1.3.1 Der Begriff ‚Raumbezug‘ in der Fachliteratur 14 2.1.3.2 Kategorien des Georaumbezuges 16 2.1.4 Georäumlich 16 2.1.5 Geographische Information und Geodaten 17 2.1.5.1 Begriffsklärung 17 2.1.5.2 Points of Interest als Spezialfall 19 2.1.6 Volunteered Geographic Information / Nutzergenerierte geographische Informationen 19 2.1.6.1 Begriffsherkunft und Charakteristika von VGI 19 2.1.6.2 Das Konzept der menschlichen Sensoren 20 2.1.6.3 Kommunikation geographischer Informationen bei VGI 21 2.1.6.4 Der Mehrwert von VGI 21 2.1.6.5 Motive der Beitragenden 22 2.1.6.6 VGI im globalen Kontext 22 2.1.6.7 Erfassung der Informationen: partizipativ vs. opportunistisch 23 2.1.6.8 Formale Definition 23 2.1.6.9 Deutsche Entsprechung des Begriffs 24 2.1.7 Semantik nutzergenerierter geographischer Informationen 25 2.1.7.1 Strukturierte Form 25 2.1.7.2 Unstrukturierte Form 26 2.2 Arten nutzergenerierter geographischer Informationen 26 2.2.1 Topographische Informationen – OpenStreetMap 28 2.2.1.1 Korpusbeschreibung 28 2.2.1.2 Forschungsüberblick 30 2.2.1.3 Raumbezug 32 2.2.2 Enzyklopädische Informationen – Wikipedia 34 2.2.2.1 Korpusbeschreibung 34 2.2.2.2 Forschungsüberblick 35 2.2.2.3 Raumbezug 36 2.2.2.4 Metaeigenschaften von Artikeln der deutschen Wikipedia 37 2.2.3 Microblogging-Texte – Twitter 39 2.2.3.1 Korpusbeschreibung 39 2.2.3.2 Forschungsüberblick 41 2.2.3.3 Raumbezug 42 2.2.4 Bilder und Bildmetainformationen – Flickr, Instagram, Picasa, Panoramio, Geograph 43 2.2.4.1 Korpusbeschreibung 43 2.2.4.2 Forschungsüberblick 45 2.3 Informationen und Netzwerke 46 2.3.1 Beispiele für Netzwerkstrukturen 46 2.3.2 Implikationen vernetzter Informationen für die Raumbezugshypothese 47 2.3.3 Netzwerkeigenschaften der Wikipedia 47 2.4 Geographische Informationen und Kognition 49 2.5 Informationen klassifizieren durch maschinelle Sprachverarbeitung 50 2.5.1 Naive Bayes 51 2.5.2 Maximum Entropy 51 2.5.3 Support Vector Machines 52 3 Methoden und Ergebnisse 53 3.1 Korpusanalytischer Ansatz für die Prüfung der Raumbezugshypothese 53 3.1.1 Netzwerkgrad des Georaumbezuges 53 3.1.2 Datenprozessierung 56 3.1.3 Ergebnisse der NGGR-Berechnung 57 3.1.4 Korrelation zwischen NGGR und den Eigenschaften von Wikipedia-Artikeln 60 3.2 Befragungsansatz für die Prüfung der Raumbezugshypothese 65 3.2.1 Kategorisierungsaufgabe zur Untersuchung des Georaumbezuges 65 3.2.1.1 Material 66 3.2.1.2 Prozedur 66 3.2.1.3 Teilnehmer 67 3.2.2 Hypothesen 68 3.2.3 Daten zur Beteiligung an der Befragung 68 3.2.4 Ergebnisse 70 3.3 Synthese von korpusanalytischem Ansatz und Befragungsansatz für die Prüfung der Raumbezugshypothese 71 3.3.1 Methodik 71 3.3.2 Ergebnisse 72 3.3.3 Einfluss des Faktors Wissen auf die Ergebnisse der Befragung 73 3.3.4 Einfluss des fachlichen Hintergrundes auf die Ergebnisse der Befragung 74 3.3.5 Prädiktion des Anteils raumbezogener Informationen für das gesamte Korpus der deutschen Wikipedia 76 3.4 Klassifikation nutzergenerierter geographischer Informationen hinsichtlich der Korrelation Ort-Inhalt am Beispiel von mobil verfassten Microblogging-Texten 77 3.4.1 Manuelle Textklassifikation 78 3.4.2 Überwachte maschinelle Textklassifikation mit manuell klassifizierten Trainingsdaten 80 3.4.2.1 Vorverarbeitung der Microblogging-Texte 81 3.4.2.2 Evaluation der Ergebnisse der maschinellen Textklassifikation 82 3.4.2.3 Tuning der maschinellen Klassifikation 83 3.4.3 Überwachte maschinelle Textklassifikation mit lexikalischen Trainingsdaten 83 3.4.4 Verwendete Daten 86 3.4.4.1 Aufzeichnung von mobilen Microblogging-Texten mit der Twitter-Streaming-API 86 3.4.4.2 Filterung verwendbarer Microblogging-Texte 87 3.4.4.3 Zeitliche und räumliche Muster der Microblogging-Texte 89 3.4.4.4 Verwendete Points of Interest 91 3.4.5 Ergebnisse 92 3.4.5.1 Manuelle Annotation von Texten 92 3.4.5.2 Überwachte maschinelle Klassifikation von Texten mit manuell klassifizierten Trainingsdaten 95 3.4.5.3 Überwachte maschinelle Klassifikation von Texten mit lexikalischen Trainingsdaten 99 3.5 Bestimmung der Entfernungsabhängigkeit des Anteils von für spezifische Orte relevanten Informationen am Beispiel von mobil verfassten Microblogging-Texten 103 3.5.1 Methodik 103 3.5.2 Ergebnisse 104 4 Diskussion 111 4.1 Methoden zur Prüfung der Raumbezugshypothese am Beispiel des Korpus Wikipedia 111 4.1.1 Wahl des Korpus 111 4.1.2 Abstraktes Konzept und Instanz 112 4.1.3 Korpusanalytischer Ansatz 112 4.1.4 Befragungsansatz 114 4.2 Methoden zur Bestimmung der Korrelation Ort-Inhalt von nutzergenerierten Informationen am Beispiel von mobil erzeugten Microblogging-Texten 115 4.2.1 Manuelle Klassifikation 116 4.2.2 Überwachte maschinelle Klassifikation mit manuell klassifizierten Trainingsdaten 117 4.2.3 Unüberwachte maschinelle Klassifikation mit lexikalischen Trainingsdaten 118 4.2.4 Berechnung der Entfernungsabhängigkeit des Anteils ortsbezogener Texte 119 4.2.5 Points of Interest als Modell für den räumlichen Kontext 120 4.3 Der Begriff ‚Raumbezug‘ im Kontext von nutzergenerierten geographischen Informationen 120 5 Schlussfolgerungen und Forschungsausblick 123 5.1 Beantwortung der Forschungsfragen 123 5.1.1 Zur Überprüfung der Raumbezugshypothese 123 5.1.2 Zur Korrelation von Ort und Inhalt von nutzergenerierten geographischen Informationen 125 5.2 Implikationen der Forschungsergebnisse 128 5.3 Forschungsausblick nutzergenerierte geographische Informationen 130 5.3.1 Qualität von VGI 130 5.3.2 Synthese von VGI mit amtlichen Daten 132 5.3.3 Weitere aktuelle Entwicklungen im Bereich VGI-Forschung 132 6 Literaturverzeichnis 135 7 Anhang 151 Anhang A Dokumentation des „Experiments Geoaumbezug“ 152 Anhang B Ergebnisse der Kategorisierungsaufgabe des „Experiments Georaumbezug“ 157 Anhang C Rückmeldungen der Teilnehmer des „Experiments Georaumbezug“ 163 Anhang D Einfluss der Faktoren fachlicher Hintergrund und Wissen auf die Kategorisierung von Begriffen hinsichtlich ihrer Georäumlichkeit 166 Anhang E Ergebnisse der manuellen Klassifikation der Microblogging-Texte 168 Anhang F Klassifikationsmodelle resultierend aus manuellen und lexikalischen Trainingsdaten 177 Anhang G Forschungsdaten-Anhang 181
284

Automatische Klassifizierung von Gebäudegrundrissen: Ein Beitrag zur kleinräumigen Beschreibung der Siedlungsstruktur

Hecht, Robert 10 June 2013 (has links)
Für die Beantwortung verschiedener Fragestellungen im Siedlungsraum werden kleinräumige Informationen zur Siedlungsstruktur (funktional, morphologisch und sozio-ökonomisch) benötigt. Der Gebäudebestand spielt eine besondere Rolle, da dieser die physische Struktur prägt und sich durch dessen Nutzung Verteilungsmuster von Wohnungen, Arbeitsstätten und Infrastrukturen ergeben. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung sind die Gebäude in ihrem Grundriss modelliert. Diese besitzen allerdings nur selten explizite semantische Informationen zum Gebäudetyp. Es stellt sich die Frage, ob und wie genau eine automatische Erkennung von Gebäudetypen unter Nutzung von Methoden der Geoinformatik, der Mustererkennung und des maschinellen Lernens möglich ist. In diesem Buch werden methodische Bausteine zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt. Im Kern werden Fragen beantwortet zu den Datenanforderungen, der Gebäudetypologie, der Merkmalsgewinnung sowie zu geeigneten Klassifikationsverfahren und den Klassifikationsgenauigkeiten, die abhängig von Eingangsdaten, Siedlungstyp und Trainingsdatenmenge erzielt werden können. Der Random-Forest-Algorithmus zeigte die höchste Flexibilität, Generalisierungsfähigkeit und Effizienz und wurde als bestes Klassifikationsverfahren identifiziert. Die Arbeit leistet einen wichtigen Beitrag zur Gewinnung kleinräumiger Informationen zur Siedlungsstruktur. Die entwickelte Methodik ermöglicht ein breites Anwendungsspektrum in der Wissenschaft, Planung, Politik und Wirtschaft (u. a. Stadt- und Regionalplanung, Infrastrukturplanung, Risikomanagement, Energiebedarfsplanung oder dem Geomarketing).:Vorwort .................................................................................................. I Danksagung ......................................................................................... III Kurzfassung und Thesen ....................................................................... V Abstract and Theses ............................................................................. IX Inhaltsverzeichnis ................................................................................ XV 1 Einleitung ............................................................................................ 1 2 Grundlagen zur Siedlungsstruktur .................................................... 11 3 Methodische Grundlagen der Mustererkennung .............................. 57 4 Forschungsstand .............................................................................. 95 5 Konzeptionelle Vorüberlegungen .................................................... 113 6 Mögliche Datenquellen zum Gebäudegrundriss .............................. 127 7 Entwicklung des Verfahrens ........................................................... 143 8 Ergebnisse und Diskussion ............................................................. 201 9 Schlussfolgerungen und Ausblick .................................................... 259 Literatur ............................................................................................. 275 Abkürzungsverzeichnis ...................................................................... 311 Abbildungsverzeichnis ....................................................................... 320 Tabellenverzeichnis ........................................................................... 323 Anhang A Datengrundlagen zur Siedlungsstruktur ......................................... 327 B Gebäudetypologie .......................................................................... 343 C Merkmale ........................................................................................ 349 D Entwicklung des Klassifikators ........................................................ 365 E Genauigkeitsuntersuchung ............................................................. 375 F Exemplarische Anwendung von BFClassTool ................................... 395 / Building data are highly relevant for the small-scale description of settlement structures. Spatial base data from National Mapping and Cadastral Agencies describe the buildings in terms of the geometry but often lack semantic information on the building type. Here, methods for the automatic classification of building footprints are presented and discussed. The work addresses issues of data integration, data processing, feature extraction, feature selection, and investigates the accuracy of various classification methods. The results are of scientific, planning, policy and business interest at various spatial levels.:Vorwort .................................................................................................. I Danksagung ......................................................................................... III Kurzfassung und Thesen ....................................................................... V Abstract and Theses ............................................................................. IX Inhaltsverzeichnis ................................................................................ XV 1 Einleitung ............................................................................................ 1 2 Grundlagen zur Siedlungsstruktur .................................................... 11 3 Methodische Grundlagen der Mustererkennung .............................. 57 4 Forschungsstand .............................................................................. 95 5 Konzeptionelle Vorüberlegungen .................................................... 113 6 Mögliche Datenquellen zum Gebäudegrundriss .............................. 127 7 Entwicklung des Verfahrens ........................................................... 143 8 Ergebnisse und Diskussion ............................................................. 201 9 Schlussfolgerungen und Ausblick .................................................... 259 Literatur ............................................................................................. 275 Abkürzungsverzeichnis ...................................................................... 311 Abbildungsverzeichnis ....................................................................... 320 Tabellenverzeichnis ........................................................................... 323 Anhang A Datengrundlagen zur Siedlungsstruktur ......................................... 327 B Gebäudetypologie .......................................................................... 343 C Merkmale ........................................................................................ 349 D Entwicklung des Klassifikators ........................................................ 365 E Genauigkeitsuntersuchung ............................................................. 375 F Exemplarische Anwendung von BFClassTool ................................... 395
285

Algorithmische Bestimmung der Alterungscharakteristik von Mittelspannungskabelmuffen basierend auf diagnostischen Messwerten und Betriebsmitteldaten: Algorithmische Bestimmung der Alterungscharakteristik vonMittelspannungskabelmuffen basierend auf diagnostischen Messwerten und Betriebsmitteldaten

Hunold, Sven 15 December 2016 (has links)
Bei der Zustandsbewertung von Kabeln steht derzeit das Mittelspannungsnetz im Fokus der Betrachtungen. Das Mittelspannungsnetz verbindet das Hochspannungsnetz mit dem Niederspannungsnetz und nimmt damit eine besondere Bedeutung ein. Störungen in diesem Netz wirken sich direkt als Versorgungsunterbrechung auf den Letztverbraucher aus. Rund 80 bis 85 % der Versorgungsunterbrechungen resultieren aus Problemen im Mittelspannungsnetz, sodass dortige Aktivitäten den größten Hebel bei der Steigerung der Versorgungsqualität entwickeln. Mittels Zustandsbewertung von Kabeln können verdeckte Fehler aufgedeckt oder deren Alterungszustand bestimmt werden. Nicht jeder diagnostizierte Fehler führt unmittelbar zum Ausfall. Er beschleunigt jedoch die Alterung, die letztendlich zum Ausfall führt. Die Arbeit beschäftigt sich mit der Identifizierung von Fehlern in Mittelspannungskabelmuffen im Zusammenhang mit der Alterung, um die Restlebensdauer auszunutzen und dem Ausfall zuvorzukommen. / By evaluating the status of cables, hidden errors can be detected or their aging condition can be determined. Not every diagnosed fault leads directly to failure. However, it accelerates aging, which ultimately leads to failure. The work deals with the identification of faults in medium-voltage cable joints in connection with aging in order to exploit the remaining life and to prevent the failure.
286

Algorithmische Bestimmung der Alterungscharakteristik von Mittelspannungskabelmuffen basierend auf diagnostischen Messwerten und Betriebsmitteldaten

Hunold, Sven 15 December 2016 (has links)
Bei der Zustandsbewertung von Kabeln steht derzeit das Mittelspannungsnetz im Fokus der Betrachtungen. Das Mittelspannungsnetz verbindet das Hochspannungsnetz mit dem Niederspannungsnetz und nimmt damit eine besondere Bedeutung ein. Störungen in diesem Netz wirken sich direkt als Versorgungsunterbrechung auf den Letztverbraucher aus. Rund 80 bis 85 % der Versorgungsunterbrechungen resultieren aus Problemen im Mittelspannungsnetz, sodass dortige Aktivitäten den größten Hebel bei der Steigerung der Versorgungsqualität entwickeln. Mittels Zustandsbewertung von Kabeln können verdeckte Fehler aufgedeckt oder deren Alterungszustand bestimmt werden. Nicht jeder diagnostizierte Fehler führt unmittelbar zum Ausfall. Er beschleunigt jedoch die Alterung, die letztendlich zum Ausfall führt. Die Arbeit beschäftigt sich mit der Identifizierung von Fehlern in Mittelspannungskabelmuffen im Zusammenhang mit der Alterung, um die Restlebensdauer auszunutzen und dem Ausfall zuvorzukommen. / By evaluating the status of cables, hidden errors can be detected or their aging condition can be determined. Not every diagnosed fault leads directly to failure. However, it accelerates aging, which ultimately leads to failure. The work deals with the identification of faults in medium-voltage cable joints in connection with aging in order to exploit the remaining life and to prevent the failure.
287

Effective Speech Features for Cognitive Load Assessment: Classification and Regression

Herms, Robert 03 June 2019 (has links)
This thesis is about the effectiveness of speech features for cognitive load assessment, with particular attention being paid to new perspectives of this research area. A new cognitive load database, called CoLoSS, is introduced containing speech recordings of users who performed a learning task. Various acoustic features from different categories including prosody, voice quality, and spectrum are investigated in terms of their relevance. Moreover, Teager energy parameters, which have proven highly successful in stress detection, are introduced for cognitive load assessment and it is demonstrated how automatic speech recognition technology can be used to extract potential indicators. The suitability of the extracted features is systematically evaluated by recognition experiments with speaker-independent systems designed for discriminating between three levels of load. Additionally, a novel approach to speech-based cognitive load modelling is introduced, whereby the load is represented as a continuous quantity and its prediction can thus be regarded as a regression problem. / Die vorliegende Arbeit befasst sich mit der automatischen Erkennung von kognitiver Belastung auf Basis menschlicher Sprachmerkmale. Der Schwerpunkt liegt auf der Effektivität von akustischen Parametern, wobei die aktuelle Forschung auf diesem Gebiet um neuartige Ansätze erweitert wird. Hierzu wird ein neuer Datensatz – als CoLoSS bezeichnet – vorgestellt, welcher Sprachaufzeichnungen von Nutzern enthält und speziell auf Lernprozesse fokussiert. Zahlreiche Parameter der Prosodie, Stimmqualität und des Spektrums werden im Hinblick auf deren Relevanz analysiert. Darüber hinaus werden die Eigenschaften des Teager Energy Operators, welche typischerweise bei der Stressdetektion Verwendung finden, im Rahmen dieser Arbeit berücksichtigt. Ebenso wird gezeigt, wie automatische Spracherkennungssysteme genutzt werden können, um potenzielle Indikatoren zu extrahieren. Die Eignung der extrahierten Merkmale wird systematisch evaluiert. Dabei kommen sprecherunabhängige Klassifikationssysteme zur Unterscheidung von drei Belastungsstufen zum Einsatz. Zusätzlich wird ein neuartiger Ansatz zur sprachbasierten Modellierung der kognitiven Belastung vorgestellt, bei dem die Belastung eine kontinuierliche Größe darstellt und eine Vorhersage folglich als ein Regressionsproblem betrachtet werden kann.
288

Optimierung von Algorithmen zur Videoanalyse: Ein Analyseframework für die Anforderungen lokaler Fernsehsender

Ritter, Marc 02 February 2015 (has links)
Die Datenbestände lokaler Fernsehsender umfassen oftmals mehrere zehntausend Videokassetten. Moderne Verfahren werden benötigt, um derartige Datenkollektionen inhaltlich automatisiert zu erschließen. Das Auffinden relevanter Objekte spielt dabei eine übergeordnete Rolle, wobei gesteigerte Anforderungen wie niedrige Fehler- und hohe Detektionsraten notwendig sind, um eine Korruption des Suchindex zu verhindern und erfolgreiche Recherchen zu ermöglichen. Zugleich müssen genügend Objekte indiziert werden, um Aussagen über den tatsächlichen Inhalt zu treffen. Diese Arbeit befasst sich mit der Anpassung und Optimierung bestehender Detektionsverfahren. Dazu wird ein auf die hohen Leistungsbedürfnisse der Videoanalyse zugeschnittenes holistisches Workflow- und Prozesssystem mit der Zielstellung implementiert, die Entwicklung von Bilderkennungsalgorithmen, die Visualisierung von Zwischenschritten sowie deren Evaluation zu ermöglichen. Im Fokus stehen Verfahren zur strukturellen Zerlegung von Videomaterialien und zur inhaltlichen Analyse im Bereich der Gesichtsdetektion und Fußgängererkennung.:1. Motivation . . . 1 1.1. Einordnung in den Retrievalprozess . . . . . . . . . . . . . . . . . . . 2 1.2. Infrastruktur zur Optimierung von Verfahren zur Videoanalyse . . . . 4 1.3. Herausforderungen der Bilderkennung . . . . . . . . . . . . . . . . . . 6 1.4. Wissenschaftliche Ergebnisse dieser Arbeit . . . . . . . . . . . . . . . 9 1.5. Kapitelübersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2. Methoden und Strategien der Videoanalyse . . . 15 2.1. Fachgebiete der Bilderkennung . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1. Maschinelles Lernen . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.2. Maschinelles Sehen . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.3. Computer Vision . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.1.4. Mustererkennung . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2. Strukturelle Analyse von generischen Mustererkennungsystemen . . . 22 2.2.1. Datenakquisition . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.2. Musteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.3. Musterklassifizierung . . . . . . . . . . . . . . . . . . . . . . . 26 2.2.4. Bilderkennungssysteme . . . . . . . . . . . . . . . . . . . . . . 28 2.2.5. Wissensentdeckung in Datenbanken . . . . . . . . . . . . . . . 28 2.3. Bilderkennung in der inhaltsbasierten Bildsuche . . . . . . . . . . . . 29 2.3.1. Paradigmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3.2. Bildsignaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3.3. Signaturtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.3.4. Lerntechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4. Holistische Bilderkennungssysteme im Überblick . . . . . . . . . . . . 44 2.4.1. Ein segment- und konturbasiertes CBIR-System . . . . . . . . 45 2.4.2. Biologisch inspirierte Systeme . . . . . . . . . . . . . . . . . . 48 2.4.3. Lernen aus wenigen Beispielen . . . . . . . . . . . . . . . . . . 51 2.5. Objekterkennung im Szenenkontext . . . . . . . . . . . . . . . . . . . 55 2.6. Aktuelle Grenzen der Muster- und Objekterkennung . . . . . . . . . . 60 2.7. Konzept eines generischen Workflows zur Objekterkennung in Videos . . . 64 2.7.1. Strukturelle Analyse . . . . . . . . . . . . . . . . . . . . . . . 64 2.7.2. Inhaltliche Analyse . . . . . . . . . . . . . . . . . . . . . . . . 66 2.7.3. Erweiterung des klassischen Paradigmas zur Objekterkennung . . . 67 2.7.4. Anwendungsdomänen . . . . . . . . . . . . . . . . . . . . . . . 68 2.8. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3. Systemarchitektur zur Optimierung von Bilderkennungsverfahren . . . 71 3.1. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.1.1. Softwaretechnische Anforderungen . . . . . . . . . . . . . . . . 72 3.1.2. Bewertung der Systemleistung . . . . . . . . . . . . . . . . . . 75 3.1.3. Ein- und Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.1.4. Modellierung von Domänenwissen . . . . . . . . . . . . . . . . 90 3.1.5. Diskriminierbarkeit von Merkmalen . . . . . . . . . . . . . . . 92 3.1.6. Zusammenfassende Darstellung . . . . . . . . . . . . . . . . . 95 3.2. Architektur des Gesamtsystems . . . . . . . . . . . . . . . . . . . . . 95 3.3. Struktureller Aufbau von AMOPA . . . . . . . . . . . . . . . . . . . 97 3.3.1. Verwendung von Prozessketten . . . . . . . . . . . . . . . . . 101 3.3.2. Bild- und Videoverarbeitung . . . . . . . . . . . . . . . . . . . 106 3.4. Annotation von Bildern und Videos . . . . . . . . . . . . . . . . . . . 107 3.4.1. Ein Annotationswerkzeug für Videos . . . . . . . . . . . . . . 108 3.4.2. Ein Ansatz zu Annotation, Klassifikation und Evaluation . . . 111 3.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4. Videosegmentierung . . . 119 4.1. Schnitterkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.1.1. Struktureller Aufbau von Videos . . . . . . . . . . . . . . . . 121 4.1.2. Klassische Verfahren . . . . . . . . . . . . . . . . . . . . . . . 124 4.1.3. TRECVid: Evaluationskampagne und Datensätze . . . . . . . 125 4.1.4. Das Verfahren von AT&T . . . . . . . . . . . . . . . . . . . . 130 4.2. Schnittkomposition und Ähnlichkeit . . . . . . . . . . . . . . . . . . . 137 4.2.1. Dominant-Color-Deskriptor . . . . . . . . . . . . . . . . . . . 140 4.2.2. Color-Layout-Deskriptor . . . . . . . . . . . . . . . . . . . . . 140 4.2.3. Scalable-Color-Deskriptor . . . . . . . . . . . . . . . . . . . . 141 4.2.4. Edge-Histogram-Deskriptor . . . . . . . . . . . . . . . . . . . 142 4.3. Konzeption und Implementierung . . . . . . . . . . . . . . . . . . . . 143 4.3.1. Einbindung in das Prozesskonzept von AMOPA . . . . . . . . 144 4.3.2. Auswahl des Farbraums . . . . . . . . . . . . . . . . . . . . . 148 4.3.3. Bewegungsanalyse . . . . . . . . . . . . . . . . . . . . . . . . 151 4.3.4. Bestimmung und Verifikation von Schnittkandidaten . . . . . 159 4.3.5. Ergebnisdarstellung und -speicherung . . . . . . . . . . . . . . 171 4.4. Evaluation und Optimierung der harten Schnitterkennung . . . . . . 173 4.4.1. Die TRECVid Evaluationsmethodologie . . . . . . . . . . . . 174 4.4.2. Optimierung von Recall und Laufzeit . . . . . . . . . . . . . . 176 4.4.3. Optimierung der Precision . . . . . . . . . . . . . . . . . . . . 181 4.4.4. Validierung der Ergebnisse . . . . . . . . . . . . . . . . . . . . 183 4.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 5. Gesichtsdetektion . . . 187 5.1. Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5.1.1. Verfahrensklassen und Datensätze . . . . . . . . . . . . . . . . 189 5.1.2. Boosting-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 192 5.2. Realisierung eines Systems zur Musterklassifizierung . . . . . . . . . . 200 5.2.1. Trainingsphase . . . . . . . . . . . . . . . . . . . . . . . . . . 201 5.2.2. Klassifikation mit Hilfe von Detektorketten . . . . . . . . . . . 203 5.2.3. Erlernen eines geboosteten Gesichtsklassifikators . . . . . . . . 206 5.2.4. Exkurs: Gesichtslokalisation mittels Schwarmintelligenz . . . . 210 5.3. Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.3.1. Datensatz TS100 . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.3.2. Annotation von Gesichtern in unbeschränkten Domänen . . . 217 5.3.3. Evaluationsmethodik und Ergebnisdiskussion . . . . . . . . . . 218 5.4. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 6. Erkennung weiterer Objektklassen am Beispiel von Personen . . . 229 6.1. Merkmale für die Personenerkennung . . . . . . . . . . . . . . . . . . 230 6.2. Datensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.3. Evaluation von Merkmalen auf verschiedenen Datensätzen . . . . . . 234 6.3.1. Evaluationsmethodik . . . . . . . . . . . . . . . . . . . . . . . 235 6.3.2. Auswertung und Ergebnisdiskussion . . . . . . . . . . . . . . . 238 6.4. Evaluation eines kaskadierten Klassifikationssystems . . . . . . . . . . 242 6.4.1. Systemarchitektur und Training . . . . . . . . . . . . . . . . . 242 6.4.2. Klassifikation und Evaluation . . . . . . . . . . . . . . . . . . 244 6.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 7. Zusammenfassung und Ausblick . . . 251 Anhang . . . 257 A. Übersicht zu den Experimenten zur Schnitterkennung . . . . . . . . . 259 A.1. Konfiguration und Laufzeiten der Experimente . . . . . . . . . 259 A.2. Stufe I: Farbraum und Bewegungsschätzung . . . . . . . . . . 261 A.3. Stufe II: Optimierung der Precision . . . . . . . . . . . . . . . 261 A.4. Echtzeitfähige Datenvisualisierung . . . . . . . . . . . . . . . . 267 A.5. Visualisierung einzelner Komponenten an Beispielen . . . . . . 269 B. Ergänzungen zu den Experimenten zur Gesichtsdetektion . . . . . . . 273 B.1. Trainingsverlauf des Klassifikators TUC FD . . . . . . . . . . 273 B.2. Übersicht zu den Mindestdetektionsgrößen auf TS100 . . . . . 273 B.3. Visualisierung der Detektionen auf TS100 . . . . . . . . . . . 279 C. Systemkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 Verzeichnis der Abkürzungen und Begriffe . . . v Literaturverzeichnis . . . vii / The data collections of local television stations often consist of multiples of ten thousand video tapes. Modern methods are needed to exploit the content of such archives. While the retrieval of objects plays a fundamental role, essential requirements incorporate low false and high detection rates in order to prevent the corruption of the search index. However, a sufficient number of objects need to be found to make assumptions about the content explored. This work focuses on the adjustment and optimization of existing detection techniques. Therefor, the author develops a holistic framework that directly reflects on the high demands of video analysis with the aim to facilitate the development of image processing algorithms, the visualization of intermediate results, and their evaluation and optimization. The effectiveness of the system is demonstrated on the structural decomposition of video footage and on content-based detection of faces and pedestrians.:1. Motivation . . . 1 1.1. Einordnung in den Retrievalprozess . . . . . . . . . . . . . . . . . . . 2 1.2. Infrastruktur zur Optimierung von Verfahren zur Videoanalyse . . . . 4 1.3. Herausforderungen der Bilderkennung . . . . . . . . . . . . . . . . . . 6 1.4. Wissenschaftliche Ergebnisse dieser Arbeit . . . . . . . . . . . . . . . 9 1.5. Kapitelübersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2. Methoden und Strategien der Videoanalyse . . . 15 2.1. Fachgebiete der Bilderkennung . . . . . . . . . . . . . . . . . . . . . . 16 2.1.1. Maschinelles Lernen . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.2. Maschinelles Sehen . . . . . . . . . . . . . . . . . . . . . . . . 18 2.1.3. Computer Vision . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.1.4. Mustererkennung . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.2. Strukturelle Analyse von generischen Mustererkennungsystemen . . . 22 2.2.1. Datenakquisition . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.2. Musteranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2.3. Musterklassifizierung . . . . . . . . . . . . . . . . . . . . . . . 26 2.2.4. Bilderkennungssysteme . . . . . . . . . . . . . . . . . . . . . . 28 2.2.5. Wissensentdeckung in Datenbanken . . . . . . . . . . . . . . . 28 2.3. Bilderkennung in der inhaltsbasierten Bildsuche . . . . . . . . . . . . 29 2.3.1. Paradigmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3.2. Bildsignaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 2.3.3. Signaturtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.3.4. Lerntechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.4. Holistische Bilderkennungssysteme im Überblick . . . . . . . . . . . . 44 2.4.1. Ein segment- und konturbasiertes CBIR-System . . . . . . . . 45 2.4.2. Biologisch inspirierte Systeme . . . . . . . . . . . . . . . . . . 48 2.4.3. Lernen aus wenigen Beispielen . . . . . . . . . . . . . . . . . . 51 2.5. Objekterkennung im Szenenkontext . . . . . . . . . . . . . . . . . . . 55 2.6. Aktuelle Grenzen der Muster- und Objekterkennung . . . . . . . . . . 60 2.7. Konzept eines generischen Workflows zur Objekterkennung in Videos . . . 64 2.7.1. Strukturelle Analyse . . . . . . . . . . . . . . . . . . . . . . . 64 2.7.2. Inhaltliche Analyse . . . . . . . . . . . . . . . . . . . . . . . . 66 2.7.3. Erweiterung des klassischen Paradigmas zur Objekterkennung . . . 67 2.7.4. Anwendungsdomänen . . . . . . . . . . . . . . . . . . . . . . . 68 2.8. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3. Systemarchitektur zur Optimierung von Bilderkennungsverfahren . . . 71 3.1. Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.1.1. Softwaretechnische Anforderungen . . . . . . . . . . . . . . . . 72 3.1.2. Bewertung der Systemleistung . . . . . . . . . . . . . . . . . . 75 3.1.3. Ein- und Ausgabe . . . . . . . . . . . . . . . . . . . . . . . . . 89 3.1.4. Modellierung von Domänenwissen . . . . . . . . . . . . . . . . 90 3.1.5. Diskriminierbarkeit von Merkmalen . . . . . . . . . . . . . . . 92 3.1.6. Zusammenfassende Darstellung . . . . . . . . . . . . . . . . . 95 3.2. Architektur des Gesamtsystems . . . . . . . . . . . . . . . . . . . . . 95 3.3. Struktureller Aufbau von AMOPA . . . . . . . . . . . . . . . . . . . 97 3.3.1. Verwendung von Prozessketten . . . . . . . . . . . . . . . . . 101 3.3.2. Bild- und Videoverarbeitung . . . . . . . . . . . . . . . . . . . 106 3.4. Annotation von Bildern und Videos . . . . . . . . . . . . . . . . . . . 107 3.4.1. Ein Annotationswerkzeug für Videos . . . . . . . . . . . . . . 108 3.4.2. Ein Ansatz zu Annotation, Klassifikation und Evaluation . . . 111 3.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 4. Videosegmentierung . . . 119 4.1. Schnitterkennung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 4.1.1. Struktureller Aufbau von Videos . . . . . . . . . . . . . . . . 121 4.1.2. Klassische Verfahren . . . . . . . . . . . . . . . . . . . . . . . 124 4.1.3. TRECVid: Evaluationskampagne und Datensätze . . . . . . . 125 4.1.4. Das Verfahren von AT&T . . . . . . . . . . . . . . . . . . . . 130 4.2. Schnittkomposition und Ähnlichkeit . . . . . . . . . . . . . . . . . . . 137 4.2.1. Dominant-Color-Deskriptor . . . . . . . . . . . . . . . . . . . 140 4.2.2. Color-Layout-Deskriptor . . . . . . . . . . . . . . . . . . . . . 140 4.2.3. Scalable-Color-Deskriptor . . . . . . . . . . . . . . . . . . . . 141 4.2.4. Edge-Histogram-Deskriptor . . . . . . . . . . . . . . . . . . . 142 4.3. Konzeption und Implementierung . . . . . . . . . . . . . . . . . . . . 143 4.3.1. Einbindung in das Prozesskonzept von AMOPA . . . . . . . . 144 4.3.2. Auswahl des Farbraums . . . . . . . . . . . . . . . . . . . . . 148 4.3.3. Bewegungsanalyse . . . . . . . . . . . . . . . . . . . . . . . . 151 4.3.4. Bestimmung und Verifikation von Schnittkandidaten . . . . . 159 4.3.5. Ergebnisdarstellung und -speicherung . . . . . . . . . . . . . . 171 4.4. Evaluation und Optimierung der harten Schnitterkennung . . . . . . 173 4.4.1. Die TRECVid Evaluationsmethodologie . . . . . . . . . . . . 174 4.4.2. Optimierung von Recall und Laufzeit . . . . . . . . . . . . . . 176 4.4.3. Optimierung der Precision . . . . . . . . . . . . . . . . . . . . 181 4.4.4. Validierung der Ergebnisse . . . . . . . . . . . . . . . . . . . . 183 4.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 5. Gesichtsdetektion . . . 187 5.1. Stand der Technik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188 5.1.1. Verfahrensklassen und Datensätze . . . . . . . . . . . . . . . . 189 5.1.2. Boosting-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 192 5.2. Realisierung eines Systems zur Musterklassifizierung . . . . . . . . . . 200 5.2.1. Trainingsphase . . . . . . . . . . . . . . . . . . . . . . . . . . 201 5.2.2. Klassifikation mit Hilfe von Detektorketten . . . . . . . . . . . 203 5.2.3. Erlernen eines geboosteten Gesichtsklassifikators . . . . . . . . 206 5.2.4. Exkurs: Gesichtslokalisation mittels Schwarmintelligenz . . . . 210 5.3. Evaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.3.1. Datensatz TS100 . . . . . . . . . . . . . . . . . . . . . . . . . 214 5.3.2. Annotation von Gesichtern in unbeschränkten Domänen . . . 217 5.3.3. Evaluationsmethodik und Ergebnisdiskussion . . . . . . . . . . 218 5.4. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227 6. Erkennung weiterer Objektklassen am Beispiel von Personen . . . 229 6.1. Merkmale für die Personenerkennung . . . . . . . . . . . . . . . . . . 230 6.2. Datensätze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 6.3. Evaluation von Merkmalen auf verschiedenen Datensätzen . . . . . . 234 6.3.1. Evaluationsmethodik . . . . . . . . . . . . . . . . . . . . . . . 235 6.3.2. Auswertung und Ergebnisdiskussion . . . . . . . . . . . . . . . 238 6.4. Evaluation eines kaskadierten Klassifikationssystems . . . . . . . . . . 242 6.4.1. Systemarchitektur und Training . . . . . . . . . . . . . . . . . 242 6.4.2. Klassifikation und Evaluation . . . . . . . . . . . . . . . . . . 244 6.5. Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 7. Zusammenfassung und Ausblick . . . 251 Anhang . . . 257 A. Übersicht zu den Experimenten zur Schnitterkennung . . . . . . . . . 259 A.1. Konfiguration und Laufzeiten der Experimente . . . . . . . . . 259 A.2. Stufe I: Farbraum und Bewegungsschätzung . . . . . . . . . . 261 A.3. Stufe II: Optimierung der Precision . . . . . . . . . . . . . . . 261 A.4. Echtzeitfähige Datenvisualisierung . . . . . . . . . . . . . . . . 267 A.5. Visualisierung einzelner Komponenten an Beispielen . . . . . . 269 B. Ergänzungen zu den Experimenten zur Gesichtsdetektion . . . . . . . 273 B.1. Trainingsverlauf des Klassifikators TUC FD . . . . . . . . . . 273 B.2. Übersicht zu den Mindestdetektionsgrößen auf TS100 . . . . . 273 B.3. Visualisierung der Detektionen auf TS100 . . . . . . . . . . . 279 C. Systemkonfiguration . . . . . . . . . . . . . . . . . . . . . . . . . . . 281 Verzeichnis der Abkürzungen und Begriffe . . . v Literaturverzeichnis . . . vii
289

Proximal Splitting Methods in Nonsmooth Convex Optimization

Hendrich, Christopher 17 July 2014 (has links)
This thesis is concerned with the development of novel numerical methods for solving nondifferentiable convex optimization problems in real Hilbert spaces and with the investigation of their asymptotic behavior. To this end, we are also making use of monotone operator theory as some of the provided algorithms are originally designed to solve monotone inclusion problems. After introducing basic notations and preliminary results in convex analysis, we derive two numerical methods based on different smoothing strategies for solving nondifferentiable convex optimization problems. The first approach, known as the double smoothing technique, solves the optimization problem with some given a priori accuracy by applying two regularizations to its conjugate dual problem. A special fast gradient method then solves the regularized dual problem such that an approximate primal solution can be reconstructed from it. The second approach affects the primal optimization problem directly by applying a single regularization to it and is capable of using variable smoothing parameters which lead to a more accurate approximation of the original problem as the iteration counter increases. We then derive and investigate different primal-dual methods in real Hilbert spaces. In general, one considerable advantage of primal-dual algorithms is that they are providing a complete splitting philosophy in that the resolvents, which arise in the iterative process, are only taken separately from each maximally monotone operator occurring in the problem description. We firstly analyze the forward-backward-forward algorithm of Combettes and Pesquet in terms of its convergence rate for the objective of a nondifferentiable convex optimization problem. Additionally, we propose accelerations of this method under the additional assumption that certain monotone operators occurring in the problem formulation are strongly monotone. Subsequently, we derive two Douglas–Rachford type primal-dual methods for solving monotone inclusion problems involving finite sums of linearly composed parallel sum type monotone operators. To prove their asymptotic convergence, we use a common product Hilbert space strategy by reformulating the corresponding inclusion problem reasonably such that the Douglas–Rachford algorithm can be applied to it. Finally, we propose two primal-dual algorithms relying on forward-backward and forward-backward-forward approaches for solving monotone inclusion problems involving parallel sums of linearly composed monotone operators. The last part of this thesis deals with different numerical experiments where we intend to compare our methods against algorithms from the literature. The problems which arise in this part are manifold and they reflect the importance of this field of research as convex optimization problems appear in lots of applications of interest.
290

Towards personalized medicine in kidney transplantation: Unravelling the results of a large multi-centre clinical study

Blázquez Navarro, Arturo 05 May 2020 (has links)
Trotz Fortschritte in den letzten Dekaden ist das Langzeitüberleben von Nierentransplantaten unzureichend. Die Personalisierung der Behandlung kann dabei zu erheblichen Verbesserungen führen. Vor diesem Hintergrund wurde eine Kohorte von 587 Patienten im ersten Jahr nach der Transplantation untersucht und ein breites Spektrum von Markern zur langfristigen Prognose etabliert. In dieser Dissertation beschreibe ich in vier Manuskripten und zwei Kapiteln meine Arbeit zur personalisierten Transplantationsmedizin. Der klinische Verlauf von Patienten nach Nierentransplantation wurde untersucht. Die wichtigen Komplikationen standen im Vordergrund: Virusreaktivierungen – insbesondere die BK- und Cytomegalieviren – und akute Abstoßung. Folgende Analysen wurden durchgeführt: (i) Systematische Analyse der Assoziationen zwischen Virusreaktivierungen und deren Einfluss auf das Transplantationsergebnis; (ii) Bewertung der Auswirkungen antiviraler Behandlungsstrategien auf die Transplantationsergebnisse; (iii) Entwicklung eines Tools zur Prätransplantations-Risikoeinschätzung der Abstoßung und (iv) Erstellung eines mathematischen Modells für die personalisierte Charakterisierung der Immunantwort gegen das BK-Virus. Zusammengenommen haben die vier Studien das Potenzial, (i) die Patientenversorgung zu verbessern, (ii) die Überwachung von Virusreaktivierungen zu optimieren, (iii) Präventionsstrategien gegen virale Reaktivierungen zu stratifizieren, (iv) die Behandlung der Patienten an das individuelle Risiko akuter Abstoßung anzupassen, und (v) zur Personalisierung der Immuntherapie beizutragen. Die Studien zeigen, wie das große Datenvolumen einer klinischen Studie zur Weiterentwicklung der personalisierten Medizin unter Einsatz effektiver Strategien für Datenmanagement, Analyse und Interpretation genutzt werden kann. Es ist zu erwarten, dass diese Ergebnisse die klinische Praxis beeinflussen und so das langfristige Überleben und die Lebensqualität der Patienten verbessern. / In spite of the developments in the last decades, long-term graft survival rates in kidney transplantation are still poor: Personalization of treatment can thereby lead to a drastic improvement in long-term outcomes. With this goal, a cohort of 587 patients was characterized for a wide range of markers during the first post-transplantation year to assess their long-term prognosis. Here, I describe along four manuscripts and two chapters my work on personalized medicine for renal transplantation. In detail, we have studied the clinical evolution of patients with emphasis on two most relevant complications: viral reactivations – particularly those of BK virus and cytomegalovirus – and acute rejection. We have analysed in depth these phenomena by (i) exhaustively analysing the associations between different viral reactivations and their influence on transplantation outcome, (ii) evaluating the effects of antiviral treatment strategies on viral reactivation and other transplantation outcomes with emphasis on sex-associated differences, (iii) developing a tool for the pre-transplantation risk assessment of acute cellular rejection, and (iv) creating a mathematical model for the personalized characterization of the immune response against the BK virus under immunosuppression. Taken together, these studies have the potential of improving patient care, optimizing monitoring of viral reactivations, stratifying antiviral prevention strategies, tailoring immunosuppression and monitoring to the individual risk of acute rejection, and contributing to personalization of immunotherapy. They demonstrate how the large volume of data obtained within a clinical study can be employed to further the development of personalized medicine, employing effective data management, analysis and interpretation strategies. We expect these results to eventually inform clinical practice, thereby improving long-term survival and quality of life after kidney transplantation.

Page generated in 0.1204 seconds