Spelling suggestions: "subject:"[een] DIGITAL HUMANITIES"" "subject:"[enn] DIGITAL HUMANITIES""
81 |
Content Warning : The Compromise of Accessibility and Sensitivity of Museum Database in the Case of Museum of Ethnography, SwedenBoonrab, Mevarath January 2022 (has links)
No description available.
|
82 |
Gestaltung virtueller Forschungsumgebungen für die philologische DetailarbeitKeil, Reinhard 03 July 2018 (has links)
No description available.
|
83 |
Das Projekt eChant oder: Wie gefährlich sind musikalische Varianten?Morent, Stefan 03 July 2018 (has links)
No description available.
|
84 |
Visual Analysis of Engineers' Biographies and Engineering BranchesMeinecke, Christofer, Jänicke, Stefan 25 January 2019 (has links)
The Prosopographic Database of German Engineers 1825–1970 contains a multitude of biographical information. Given a set of research interests by collaborating historians, this paper discusses the steps undertaken (1) to extract engineering subjects from unstructured text entries in the database accompanied with geospatial and temporal information, (2) to adapt existing visual representations to facilitate exploratory analyses, and (3) to design a visual interface to support the interactive composition of engineering branches from engineering subjects to enable the comparative analysis of geospatial-temporal developments in engineering. Usage scenarios outline the benefit of the proposed visualizations for modern prosopography research.
|
85 |
Timages: Enhancing Time Graphs with Iconographic InformationJänicke, Stefan 25 January 2019 (has links)
Various time-based visualization techniques have been designed to support the temporal analysis of data collections. While quantities play a secondary role in traditional timelines that reserve space for each individual data item to be observed, time graphs rather display quantitative information and they provide interaction means to filter for a subset of the data. Timages is a hybrid approach that enhances quantitative time graphs with qualitative information in an infographic-style. By (1) scaling thumbnails of data items dependent on relevance to the observed topic and by (2) time-dependent positioning these thumbnails inside a temporally aligned area with a novel space-filling strategy, the most relevant items in the entire data collection as well as predominant data items of certain time ranges are instantly seizable without the need to interact with the time graph.
|
86 |
Der Computer als Denkzeug für hermeneutische ArbeitKeil, Reinhard 09 November 2020 (has links)
Computer science and the humanities seem to belong to two opposite sides within the spectrum of scientific methods and research. In the domain of digital humanities, however, formalization and hermeneutic interpretation have to be integrated. As will be argued in this article, this integration provides a fundamentally new challenge to both disciplines.
In particular, researchers from the humanities want to be sure that using the tools provided by computer science (big data, machine learning, etc.) do not change insights in any non-expected way. However, even if this could be partially secured, it cannot be achieved in general for most of the research practices. As will be demonstrated in the context of digital editions in musicology, it is impossible to design technology in a neutral or context-free manner. Due to the interests of different actors and institutions, numerous design conflicts arise where the implementation of requirements violates other, equally valid demands. To balance these conflicting requirements invariably brings some bias to the overall design. Thus, it is important to develop a strategy for identifying potential influences as well as the impact of design decisions throughout the whole process of developing tools and infrastructures.
The paper presents an approach for hypotheses driven design of digital tools and infrastructures from a computer science point of view, placing great emphasis on supporting mutual understanding and ensuring a transparent design process.
|
87 |
Opening up scholarship in the humanities: digital publishing, knowledge translation, and public engagementArbuckle, Alyssa 07 June 2021 (has links)
Opening Up Scholarship in the Humanities: Digital Publishing, Knowledge Translation, and Public Engagement considers the concept of humanistic, open, social scholarship and argues for its value in the contemporary academy as both a set of socially oriented activities and an organizing framework for such activities. This endeavour spans the interrelated areas of knowledge creation, public engagement, and open access, and demonstrates the importance of considering this triad as critical for the pursuit of academic work moving forward—especially in the humanities. Under the umbrella of open social scholarship, I consider open access as a baseline for public engagement and argue for the vitalness of this sort of work. Moreover, I suggest that there is a strong connection between digital scholarship and social knowledge creation. I explore the knowledge translation lessons that other fields might have for the humanities and include a journalist–humanist case study to this end. I also argue for the value of producing research output in many different forms and formats. Finally, I propose that there are benefits to explicitly popularizing the humanities. In sum, this dissertation speculates on past, current, and future scholarly communication activities, and proposes that such activities might be opened up for wider engagement and, thus, social benefit. / Graduate
|
88 |
Enhancing digital text collections with detailed metadata to improve retrievalBall, Liezl Hilde January 2020 (has links)
Digital text collections are increasingly important, as they enable researchers to explore new ways of interacting with texts through the use of technology. Various tools have been developed to facilitate exploring and searching in text collections at a fairly low level of granularity. Ideally, it should be possible to filter the results at a greater level of granularity to retrieve only specific instances in which the researcher is interested.
The aim of this study was to investigate to what extent detailed metadata could be used to enhance texts in order to improve retrieval. To do this, the researcher had to identify metadata that could be useful to filter according to and find ways in which these metadata can be applied to or encoded in texts. The researcher also had to evaluate existing tools to determine to what extent current tools support retrieval on a fine-grained level. After identifying useful metadata and reviewing existing tools, the researcher could suggest a metadata framework that could be used to encode texts on a detailed level. Metadata in five different categories were used, namely morphological, syntactic, semantic, functional and bibliographic. A further contribution in this metadata framework was the addition of in-text bibliographic metadata, to use where sections in a text have different properties than those in the main text.
The suggested framework had to be tested to determine if retrieval was indeed improved. In order to do so, a selection of texts was encoded with the suggested framework and a prototype was developed to test the retrieval. The prototype receives the encoded texts and stores the information in a database. A graphical user interface was developed to enable searching in the database in an easy and intuitive manner.
The prototype demonstrates that it is possible to search for words or phrases with specific properties when detailed metadata are applied to texts. The fine-grained metadata from five different categories enable retrieval on a greater level of granularity and specificity. It is therefore recommended that detailed metadata are used to encode texts in order to improve retrieval in digital text collections.
Keywords: metadata, digital humanities, digital text collections, retrieval, encoding / Thesis (DPhil (Information Science))--University of Pretoria, 2020. / Information Science / DPhil (Information Science) / Unrestricted
|
89 |
Design und Implementierung eines Software-Ökosystems für textbasierte Inhaltsanalysen in den Sozialwissenschaften mit Schwerpunkt auf der Detektion schwacher SignaleKahmann, Christian 14 June 2021 (has links)
Der Einsatz von automatisierten quantitativen Methoden in den Sozialwissenschaften gewinnt stetig an Bedeutung. Dies hat zum einen mit der rasant wachsenden Menge und Verfügbarkeit digital vorliegender Daten zu tun. Zum anderen erlauben es innovative automatisierte Ansätze, Ergebnisse zu produzieren, welche durch qualitative Arbeit allein nicht möglich wären. Die Implementierung innovativer Algorithmen zur Anwendung quantitativer Verfahren bedarf jedoch eines großen Maßes an Wissen im Bereich der Programmierung sowie der Funktionsweise der anzuwendenden Methoden. Da dieses Expertenwissen aber nur in den wenigsten Fällen in rein sozialwissenschaftlichen Projekten vorhanden ist, ist es notwendig, andere Lösungsmöglichkeiten zur Anwendung automatisierter quantitativer Verfahren in den Sozialwissenschaften zu nutzen. Lediglich die Bereiche der Computational Social Science sowie die Digital Humanities stellen Forschungsbereiche der Sozialwissenschaften dar, welche als Vorreiter bereits Erfahrungen im Umgang mit automatisierten quantitativen Verfahren aufweisen. Eine mögliche Lösung für den breiten Einsatz von automatisierten Verfahren in den gesamten Sozialwissenschaften ist die Erstellung und Anwendung von Text-Mining-Infrastrukturen, die speziell für den Einsatz in den Sozialwissenschaften ausgerichtet sind. Diese erlauben es Sozialwissenschaftlern, mit einer vergleichsweise geringen Einstiegshürde aktuelle Verfahren und Forschungsansätze der Bereiche Text Mining und Machine Learning auf ihre eigenen Forschungsfragen und Daten anwenden zu können. Damit diese Infrastrukturen aber auch tatsächlich einen deutlichen Mehrwert für den Sozialwissenschaftler darstellen, müssen verschiedene Anforderungen erfüllt werden. Diese teilen sich auf in generelle an Software gestellte Forderungen wie beispielsweise Skalierbarkeit und Performanz sowie in spezifische Anforderungen für die Anwendung in den Sozialwissenschaften. Zu diesen speziellen Anforderungen zählt die Möglichkeit des Umgangs mit verschiedenartigen Datengrundlagen. In dieser Arbeit wird der Fokus auf textuelle Daten gelegt, wobei auch diese sehr große Unterschiede in ihrer Charakteristik und damit in deren notwendiger Verarbeitung aufweisen. Es werden darüber hinaus drei Schlüsselanforderungen identifiziert, die für den Einsatz inden Sozialwissenschaften essentiell sind. Die erste Schlüsselanforderung beschreibt die generelle Ausrichtung einer Text-MiningInfrastruktur als generische Plattform, welche durch die Merkmale von Anpassbarkeit, Erweiterbarkeit sowie der Möglichkeit des Exportes von Ergebnissen an die zahlreichen zum Teil sehr diversen Forschungsfragen der Sozialwissenschaften assimiliert werden kann. Die zweite Schlüsselanforderung stellt die Notwendigkeit, qualitative und quantitative Forschungsdesigns durch die Implementierung von dafür vorgesehenen Interfaces vereinen zu können, in den Vordergrund. Beide Forschungsansätze können auf diese Weise voneinander profitieren. Zuletzt wird noch die Bedeutung von schwachen Signalen als Forschungsgrundlage in den Sozialwissenschaften hervorgehoben. Für alle drei dieser Schlüsselanforderungen als auch die übrigen abgeleiteten Anforderungen an eine Text-Mining-Infrastruktur für den Einsatz in den Sozialwissenschaften werden mögliche Implementierungen und Lösungsansätze präsentiert. Dies geschieht zum einen durch die Beschreibung des Designs und der Entwicklung genau einer solchen Text-Mining-Infrastruktur am Beispiel des interactive Leipzig Corpus Miner. Es werden notwendige Abwägungen bezüglich verschiedener Implementierungsstrategien und Softwaredesignentscheidungen, welche zur Umsetzung der gestellten Anforderungen notwendig sind, erläutert. Zum anderen wird ein Maß zur Quantifizierung von diachronen Kontextänderungen in der Form der Kontextvolatilität vorgestellt. Das Maß wird im Laufe der Arbeit zur Detektion und Analyse schwacher Signale in textuellen Daten eingesetzt. Im letzten Teil der Arbeit werden die realisierten Umsetzungen der Schlüsselanforderungen am Beispiel verschiedener durchgeführter Projekte aufgezeigt. Die wichtigsten Beiträge dieser Arbeit sind damit zum Ersten eine Aufstellung spezifischer Anforderungen an Text-Mining-Infrastrukturen für den Einsatz in den Sozialwissenschaften. Zum Zweiten wird darauf aufbauend ein mögliches Design einer daraus resultierenden Forschungsumgebung detailliert erläutert. Den dritten Beitrag dieser Arbeit stellt die Weiterentwicklung der Kontextvolatilität als Verfahren zur Detektion schwacher Signale in diachronen Daten dar.
|
90 |
Manifestieren die Digital Humanities postkoloniale Strukturen?: Eine Untersuchung über den ökologischen und sozialen ‚Fußabdruck‘ der digitalen GeisteswissenschaftenTzschaschel, Anna 01 December 2020 (has links)
Die Digitalisierung ist in aller Munde und mit ihr wächst auch der Forschungszweig der Digital Humanities (DH) an. Das beflügelt insofern, als man in den letzten Jahren eher den Rückgang der Geisteswissenschaften erleben musste und nicht deren Förderung und Ausweitung. Auf diese Art entstehen großartige Projekte, in denen nicht nur bekanntes Wissen neu aufbereitet, sondern auch bisher verborgenes erstmalig zur Verfügung gestellt werden kann und das oftmals frei zugänglich, anwenderfreundlich und neu verknüpft ist. Ein Medienwandel à la Erfindung des Buchdrucks scheint im Gange.
Während also die Vorteile klar auf der Hand liegen, verschwinden die Kosten hinter der Euphorie. Neben den enormen Finanzmitteln, die Bund und Länder für die Digitalisierung aufwenden, erfordert dieser Prozess vor allem einen hohen Material- und Energiebedarf, der schon jetzt zu unüberschaubaren Auswirkungen auf Ökosysteme und damit auf die Menschen, die darin leben, führt. Auffällig ist dabei, dass – im globalen Vergleich – eine finanzielle Schwäche von Staaten in der Regel mit der Intensität nachteiliger Auswirkungen durch die Digitalisierung korreliert. Für die in dieser Arbeit untersuchten Negativfolgen drängt sich dann die Frage auf, ob die Industrie 4.0 nicht Gefahr läuft, ähnliche Muster zu bedienen, wie sie bereits aus der Kolonialgeschichte bekannt sind. Unter diesem Gesichtspunkt werden im Folgenden verschiedene Bereiche der Digitalisierung untersucht, von der Produktion der Geräte bis zur Partizipation am Wissensbestand, wobei mit Hilfe der Überlegungen der postcolonial studies der Kolonialbegriff auf die besonderen Umstände des aktuellen Zeitgeschehens übertragen wird.:1 Einleitung 3
2. Was ist und was macht DH? 4
2.1 Profil und Arbeitsweise 4
2.2 Beispiel: DH in der Germanistik 5
3 Warum Kolonialismus? 5
3.1 Kolonialismus – Begriffsklärung 5
3.2 Postkolonialismus 6
3.3 Ziel der Begriffsanwendung 7
4. Kritische Selbstreferenz innerhalb der Fachrichtung DH 8
5 Kehrseiten der Digitalisierung 10
5.1 Wissen 10
5.2 Nochmal: Double-Keying 11
5.3 Rohstoffe 12
5.3.1 Verbrauch 12
5.3.2 Beschaffung am Beispiel ‚seltene Erden‘ 13
5.4 Energie 15
5.5 Ökonomie 16
5.5.1 Die Manifestation globaler Ungleichgewichte 16
5.5.2 Beispiel: Umwelttechnik-Atlas für Deutschland 17
6. Schlussfolgerung 19
Literaturverzeichnis 20
|
Page generated in 0.0563 seconds