Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Nur Sitzungen am Veranstaltungsort 
 
Sitzungsübersicht
Sitzung
Postersession
Zeit:
Donnerstag, 10.03.2022:
17:30 - 20:00

Virtueller Veranstaltungsort: DHd2022 Gathertown

Passwort: dhd2022

Zeige Hilfe zu 'Vergrößern oder verkleinern Sie den Text der Zusammenfassung' an
Präsentationen

Studying the ephemeral, cultures of digital oblivion

Michael Achmann, Lisa Hampel, Ruslan Asabidi, Christian Wolff

Lehrstuhl für Medieninformatik, Universität Regensburg, Germany

In diesem Beitrag stellen wir unsere Work-In-Progress Social-Media-Studie zu Instagram-Stories während der Bundestagswahl 2021 vor. Da es wenig Daten zu den Inhalten und Elementen der Stories gibt haben wir ein Annotationstool entwickelt, mit dem durch Crowdsourcing Stories auf privaten Profilen und denen von Influencern annotiert und beschrieben werden können. Zusätzlich wurden die Stories politischer Parteien und derer Spitzenkandidat*innen automatisiert gesammelt und teilautomatisiert annotiert. Die beiden Korpora werden im weiteren Verlauf miteinander verglichen um zunächst auf einer Metaebene unterschiede und parallelen der Story-Nutzung zwischen Privatpersonen und politischer Akteure sowie Influencern zu erfassen. Als Nebeneffekt erhalten wir ein Korpus das es entgegen der vorhandenen Literatur zum ersten Mal erlaubt quantitative Aussagen zu Instagram-Stories machen kann: Welche Elemente und Medien werden genutzt, welche Inhalte geteilt.



Digitalisierte Ego-Dokumente als Quellen für die historische Forschung

Katarzyna Adamczak, Arnošt Štanzel

Bayerische Staatsbibliothek, Germany

Die Bayerische Staatsbibliothek ist im Besitz tausender gedruckter Tagebücher, Autobiographien und Memoiren, aber auch Fotografien und Filmen. Neuerdings publiziert sie im Rahmen eines Projektes des Fachinformationsdienstes Ost-, Ostmittel- und Südosteuropa bislang unveröffentlichte Selbstzeugnisse digital. Der Publikationsdienst steht wissenschaftlichen Institutionen und auch Privatpersonen offen und umfasst Materialien mit Bezug zum östlichen und südöstlichen Europa, die Quellencharakter haben und in Deutschland vorliegen, aber durch kommerzielle Verlage nicht veröffentlicht werden.

Das Poster fokussiert zwei Aspekte der digitalen Bereitstellung von Ego-Dokumenten: Erstens die digitale Transformation unveröffentlichter Selbstzeugnisse, beginnend mit deren Anwerbung und Auswahl über die Klärung von Rechtsfragen bis hin zu Digitalisierung, Katalogisierung, Langzeitarchivierung und Online-Bereitstellung; zweitens die Verwendung von digitalisierten Ego-Dokumenten in Forschung und Lehre und der daraus resultierenden Kooperationsmöglichkeiten zwischen Privatpersonen, Forschungsinstituten, Universitäten und Bibliotheken.



Referenzierung des digitalen kulturellen (Text-)Erbes. Digitale Quellenkritik und Modellierung von Metadaten

Melanie Althage, Malte Dreyer, Rolf Guescini, Torsten Hiltmann, Anke Lüdeling, Carolin Odebrecht

Humboldt-Universität zu Berlin, Germany

Historische Textdaten wie etwa Urkunden, Briefe, Tagebücher aber auch literarische Texte sind integraler Bestandteil unseres kulturellen Erbes und insofern für viele geisteswissenschaftliche Fachbereiche wie die Sprach-, Literatur- und Geschichtswissenschaften die empirische Fxorschungsgrundlage. In unserem Beitrag zeigen wir anhand des Fachrepositoriums LAUDATIO, wie eine domänenspezifische Datendokumentation, -kritik und -referenzierung mit standardisierten Methoden (Unified Modeling Language, TEI framework, persistente ID) für die historisch arbeitenden Textwissenschaften umgesetzt werden kann. Die Dokumentation und Kritik nimmt sich dabei die historische Quellenkritik als Vorbild, die Informationen zu inneren und äußeren Merkmalen der Quellen aggregiert. Ein Schwerpunkt wird auf Personen- und Ortsbezüge gesetzt (Entity Management). Für die Weiterentwicklung von LAUDATIO wurden zur Identifikation der transdisziplinären Anforderungen an ein Forschungsdatenrepositorium mit den Fachbereichen User Stories entwickelt. Die so identifizierten Bedarfe und möglichen Workflows diskutieren wir im Rahmen der Posterpräsentation mit der Community.



NERDPool - Datenpool für Named Entity Recognition

Peter Andorfer1, Matthias Schlögl1, Roman Bleier2

1Österreichische Akademie der Wissenschaften, Austria; 2Universität Graz, Austria

In digitalen Editionen ist die automatische Erkennung und Annotation von Personen, Orten und Datumsangaben eine wichtige Aufgabe. Named Entity Recognition (NER) spielt dabei eine zentrale Rolle. Historische Texte bilden noch ein Problem, da oft zu wenig Trainingsmaterial zur Verfügung steht, um entsprechende ML-Modelle zu trainieren.Das Projekt NERDPool versucht einerseits existierende Editionsdaten zu nutzen und daraus einen Pool an Trainingsdaten zu generieren, sowie andererseits Workflows zu erproben und zu implementieren, die es erlauben, einfach und effizient bestehende Korpa manuell zu annotieren. Den Schwerpunkt setzt das Projekts auf frühneuzeitliche deutsche Texte. Die Datensätze werden über die Webapplikation https://nerdpool-api.acdh-dev.oeaw.ac.at/ respektive über eine impelementierte offene API veröffentlicht. Mit Stand mitte Juli umfasst NERDPool rund 23.500 annotierte Datensätze. Darunter sind etwa Akten vom Regensburger Reichstag von 1576, Ministerratsprotokolle Österreichs und der österreichisch-ungarischen Monarchie 1848–1918 oder die ersten Ausgaben des Wienerischen Diariums (um 1750).



Building and Improving an OCR Classifier for Republican Chinese Newspaper Text

Matthias Arnold1, Konstantin Henke2

1Heidelberg Centre for Transcultural Studies, Universität Heidelberg, Germany; 2Institut für Computerlinguistik, Universität Heidelberg, Germany

In our paper we present the first results from a systematic approach to full text extraction from a Republican China newspaper. Our basis is a small corpus for which also a ground truth exists. We present our character segmentation method which produces about 70.000 images of characters. Based on the hypothesis that pre-training on extensive amounts of suitably augmented character images will increase the OCR accuracy for evaluation on real-life character image data, we generated additional synthetic training data. We than compare the OCR recognition results and show that a combination of synthetic and real characters produces the best results. Finally, we propose a method that makes use of a masked language model to for OCR error correction.



Ontological modelling of the Greek Intangible Cultural Heritage for complex geo-semantic querying

Alkyoni Baglatzi1, Georgios Velissaropoulos2

1Spotlight on Innovation (SPOTIN) NPCC, Greece; 2Xorostasi NPCC, Greece

The current work proposes a new approach for formalizing and visualizing intangible cultural heritage assets. With the aid of semantic technologies (ontologies, linked open data, semantic reasoning etc), the domain knowledge is being formalized and provided in an interoperable form. Particular emphasis is given on the spatial and temporal dimension of the data. A web-based map platform is being developed as a central node for sharing all the data with the end users providing the opportunity to express complex spatiotemporal and thematic queries. The work focuses on traditional dances and songs from Greece.



Projektpräsentation: "Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede" (Gloss-ViBe)

Bernhard Bauer

Universität Graz, Austria

“Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede” (Gloss-ViBe) wird über ein H2020-MSCA Individual Fellowship finanziert. Das Projekt startet im September 2021 in Kollaboration mit dem Zentrum für Informationsmodellierung – Austrian Centre for Digital Humanities und dem Institut für Antike an der Universität Graz. Die zentrale Forschungsfrage bezieht sich auf die Genese der vernakulären frühmittelalterlichen keltischsprachigen Glossen: Sind die Glossen Originale oder Übersetzungen ursprünglich lateinischer Glossen? Um Antwort(en) auf diese Frage zu finden, wird eine Fallstudie an den keltischen und lateinischen Glossen der Handschrift Vienna, Österreichische Nationalbibliothek, Codex 15298 (olim Suppl. 2698) durchgeführt. Die beiden Hauptziele des Projekts sind:

1. eine umfassende digitale Edition des Wiener Beda mit allen Glossen und dem Hauptext und

2. ein interdisziplinäres theoretisches Framework um frühmittelalterliche (Parallel-)Glossen analysieren zu können, welches Methoden der digitalen Geisteswissenschaften, Philologie und Linguistik beinhalten wird.



Doing (Digital) History - Kollaborative Formen der Erforschung von Geschichte in sozialen Medien im Projekt #SocialMediaHistory

Mia Berg1, Andrea Lorenz2

1Ruhr-Universität Bochum, Deutschland; 2Universität Hamburg, Deutschland

Medien speichern, vermitteln und strukturieren Gedächtnis und Geschichte. Mit der Medienevolution wandeln sich folglich auch Erinnerungspraktiken. Das zeigt sich insbesondere in den sozialen Medien, deren “networked memories“ sich durch eine Pluralisierung und Fragmentierung individueller und kollektiver Erinnerungen auszeichnen. In der Geschichtswissenschaft sind „Social Media Memories“ bisher nur vereinzelt untersucht worden. Im Projekt „SocialMediaHistory“ sollen deshalb Konstitution, Produktion und Analyse digitaler Geschichte auf Instagram und TikTok erforscht werden. Das Projekt verfolgt dabei eine kollaborative Doing (Digital) History im doppelten Sinne: Durch die Erstellung eigener geschichtskultureller Produkte und als methodischer Zugang zu und Reflexion über Beschaffenheit und (automatisierte) Auswertbarkeit geschichtsbezogener Social Media Inhalte. Dabei sollen technische Bedingtheiten und kommerzielle Rahmungen des digitalen Gedächtnisses reflektiert und Datenbankarbeit und Sammlungsaufbau geleistet werden. Ziel ist eine Verzahnung von Geschichtswissenschaft und Digital Humanities und die Erprobung und Auslotung von Möglichkeiten und Grenzen – auf technischer und rechtlicher Ebene und auf Ebene der historischen Erkenntnis.



Semi-automatische Erschließung von Rechnungsbüchern am Beispiel des Stadtarchivs Leuven

Jan Bigalke, Sviatoslav Drach, Claes Neuefeind

Universität zu Köln, Deutschland

In unserem Beitrag präsentieren wir einen Prototypen zur semi-automatischen Erschließung einer großen Sammlung von Rechnungsbüchern des Stadtarchivs Leuven, den wir derzeit im Kontext des Projekts “Itinera Nova” entwickeln. Im Rahmen des Projekts, das sich seit 2009 der Erschließung der im Stadtarchiv der belgischen Stadt Leuven gesammelten 1127 Schöffenregister aus den Jahren 1362-1795 mit einem Umfang von ca. 1.000.000 Seiten widmet, wurden seit 2019 auch die dort ebenfalls vorliegenden 457 Rechnungsbücher digitalisiert. Die Erschließung der Schöffenregister wird derzeit von einer Community mit rund 50 Freiwilligen betrieben und von Archiv-MitarbeiterInnen gemanagt. Das Cologne Center for eHumanities (CCeH) stellt dabei u.a. eine spezifisch für das Projekt entwickelte Web-Plattform für die kollaborative manuelle Erschließung der Schöffenregister bereit, die Rechnungsbücher hingegen sind bislang noch nicht erschlossen.



„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Bereitstellung, Zugang und Analyse literarischer Blogs am Beispiel des Techniktagebuchs

André Blessing2, Jan Hess1, Kerstin Jung2

1Deutsches Literaturarchiv Marbach, Germany; 2Universität Stuttgart, Institut für maschinelle Sprachverarbeitung

„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Wie der Untertitel des Techniktagebuchs bereits suggeriert, versteht sich das 2014 von der Schriftstellerin Kathrin Passig ins Leben gerufene literarische Blog als Teil des kulturellen Gedächtnisses. Am Beispiel des Techniktagebuchs soll dieser Beitrag einerseits die Herausforderungen bei der wissenschaftlichen Arbeit mit diesen „born-digital“ Literaturformen aufzeigen sowie andererseits vor allem auch (explorative) Zugangs- und Analysemöglichkeiten literarischer Blogs präsentieren. Zum Beispiel können Netzwerkvisualisierungen zu den von den Autor:innen vergebenen Tags in Kombination mit dem Einsatz von Topic-Model-Analysen zeigen, dass diese manuell definierten Schlagwörter der Autor:innen nicht konsistent, mitunter eher humoristisch verwendet werden. Um das Techniktagebuch korpuslinguistisch und stilometrisch auszuwerten, kamen bislang CQPWeb sowie das R-Paket Stylo zum Einsatz, sodass auch hinsichtlich des Vokabulars und des individuellen Blog-Schreibstils Unterschiede aufgezeigt werden können.



What was Theoretical Biology? A Topic-Modelling Analysis of a Multilingual Corpus of Monographs and Journals, 1914-1945

Alexander Böhm1, Stefan Reiners-Selbach2, Jan Baedke1, Alejandro Fábregas Tejeda1, Daniel J. Nicholson3

1Department of Philosophy I, Ruhr University Bochum; 2Faculty of Arts and Humanities, Heinrich-Heine-University Düsseldorf; 3Department of Philosophy, George Mason University

Over the course of the twentieth century, theoretical biology changed beyond all recognition. Although the field today is synonymous with mathematical biology, when it first emerged it had a far more philosophical agenda. Regrettably, this early period of theoretical biology has been almost completely forgotten and its existence is seldom acknowledged—let alone carefully examined. Our aim is to rescue this multilingual corpus of monographs, book series and journal articles from the dustbin of history. Our guiding question is: What did theoretical biology look like in the early 20th century? We utilize LDA topic modelling (after machine translating where necessary), top2vec and document embeddings to create an interactive tool for the exploration of this corpus, which allows analyzing the development of early theoretical biology. Moreover, we calculate mathematization scores for the documents in our corpus to map the field’s increasing emphasis on formal modeling.



Training the Archive – Von der maschinellen Exploration musealer Sammlungsdaten zur Curator’s Machine

Dominik Bönisch

Ludwig Forum für Internationale Kunst, Germany

Das Forschungsprojekt „Training the Archive“ entwickelt am Ludwig Forum für Internationale Kunst Aachen im Verbund mit dem HMKV Hartware MedienKunstVerein, Dortmund und dem Visual Computing Institute der RWTH Aachen University ein kollaboratives Konzept zwischen Machine-Learning-Modellen und der kuratorischen Praxis, welches in die sogenannte Curator’s Machine mündet. Das Poster möchte das Forschungsprojekt, dessen Fragen und Prototypen sowie erste Lessons Learned vorstellen. Ziel des Projektes ist es, einen effektiven Prozess der Mensch-Maschine-Interaktion zu etablieren, um auch das historische, stilistische und objektbasierte Kontextwissen von Expert*innen über Kunstwerke in einer musealen Sammlung bzw. in einem digitalisierten Archiv einbeziehen zu können.



Der DHd Data Steward - Maßnahmen zur Entwicklung einer nachhaltigen Datenstrategie für die Digital Humanities im deutschsprachigen Raum

Rebekka Borges1, Anke Debbeler2, Patrick Helling2

1Rheinische Friedrich-Wilhelms-Universität Bonn, Deutschland; 2Data Center for the Humanites (DCH), Universität zu Köln, Deutschland

Mit der Ernennung eines Data Stewards hat der Verband Digital Humanities im deutschsprachigen Raum e.V. (DHd) auf der Jahreskonferenz 2020 in Paderborn eine Funktion geschaffen, um eine umfassende Datenstrategie für alle Materialien, Publikationen und Ergebnisse, die im Kontext des DHd-Verbandes entstanden sind/entstehen werden, zu entwickeln. Sie sollen im Sinne der FAIR-Prinzipien (1) langfristig gesichert und archiviert als auch (2) nach Möglichkeit nachhaltig publiziert und verfügbar gemacht werden.

Mit diesem Posterbeitrag soll die bisherige Arbeit des DHd Data Stewards in Bezug auf die DHd-Jahreskonferenzen präsentiert sowie ein Blick in die Datenzukunft des Verbandes gegeben werden.



Computational Literary Studies Data Landscape Review

Ingo Börner2, Vera Maria Charvat1, Matej Ďurčo1, Michał Mrugalski3, Carolin Odebrecht3

1Österreichische Akademie der Wissenschaften, Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH); 2Universität Potsdam; 3Humboldt-Universität zu Berlin

Literarische Werke und deren digitale Repräsentationen stellen auch in den Fachbereichen der Computational Literary Studies (CLS) das Fundament für epistemische Auseinandersetzungen und Diskurse.

In unserem Teilprojekt Data Selection and Curation des europäischen "Computational Literary Studies Infrastructure"-Projekts möchten wir Brücken zu wissensbasierten Ressourcen für die CLS-Community aufbauen, um die Zugangsparadigmen für literarische Daten signifikant zu rekonfigurieren und erheblich zu verbessern.

Um die Auffindbarkeit und den forschungsorientierten Zugang zu literarischen Daten für die CLS-Community zu ermöglichen, ist eine Inventarisierung der CLS-Datenlandschaft erforderlich, die forschungsrelevante Kriterien für die Datenauswahl sowie deren Erfassung und Beschreibung anwendet. Mit dieser Inventarisierung, die wir in Form einer Data Landscape Review durchführen, kann die vorhandene Datenlandschaft als digitales Erbe für CLS-Kontexte erst umfassend sichtbar und als Vorlage für weitere Forschungsvorhaben zugänglich gemacht werden.

Unser Posterbeitrag präsentiert die Ergebnisse der Data Landscape Review, das Beschreibungsmodell, dessen Umsetzung in RDF und ein proof-of-concept des Online-Katalogs.



MUSE4Anything: Ontologiebasierte Generierung von Werkzeugen zur strukturierten Erfassung von Daten

Fabian Bühler1, Johanna Barzen1, Frank Leymann1, Bernhard Standl2, Nadine Schlomske-Bodenstein2

1Institut für Architektur von Anwendungssystemen (IAAS) - Universität Stuttgart; 2Institut für Informatik und digitale Bildung - Pädagogischen Hochschule Karlsruhe

Zur Erforschung von Text und Sprache, einem Kernbereich der Digital Humanities, existieren bereits verschiedene erprobte Werkzeuge und Forschungsmethoden. MUSE4Anything ist ein domänenunabhängiges Forschungswerkzeug, das die detaillierte und strukturierte Erfassung von komplexen Eigenschaften verschiedener Artefakte als Untersuchungsgrundlage von Forschungsfragen unterstützt. Das Werkzeug wurde basierend auf Erfahrungen aus den Projekten MUSE und MUSE4Music entwickelt und soll das dort angewandte Vorgehen für andere Forschungsfragen zugänglich machen. MUSE4Anything lässt sich individuell an die jeweilige Domäne anpassen. Dazu kann ein Benutzer des Werkzeuges beliebige Eigenschaften in Form einer Ontologie definieren. Die Erfassung der Eigenschaften mit dem MUSE4Anything Datenrepositorium erfolgt mit einer automatisch aus der vom Benutzer erstellten Ontologie generierten Eingabemaske.



Aufbau eines Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur”

Anna Busch1, Torsten Roeder2

1Theodor-Fontane-Archiv, Universität Potsdam; 2Bergische Universität Wuppertal, Germany

Der erste Satz eines literarischen Werkes erfährt in literaturwissenschaftlichen Untersuchungen oft besondere Beachtung. Autorinnen und Autoren gestalten den Anfangssatz gattungsunabhängig mit großer Sorgfalt, um in die Thematik des Textes einzuleiten, eine bestimmte Atmosphäre zu erzeugen oder um später wiederkehrende Motive einzuführen. Quasi als Incipits sind erste Sätze strukturell mit Titeln verwandt, konkurrieren dabei gelegentlich auch mit vorangestellten Mottos oder Sinnsprüchen. In der Literaturwissenschaft ist der “erste Satz” vielfach analysiert, aber nie auf Grundlage eines größeren Textkorpus quantitativ kategorisiert und typologisiert worden. Das zukünftige Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur” möchte dazu beitragen, diese bestehende Lücke zu schließen. Das Poster stellt sowohl das bislang erarbeitete Datenkorpus vor als auch Ansätze einer quantitativen textanalytischen Auswertung.



Strukturen und Impulse zur Weiterentwicklung der DHd-Abstracts

Anna Busch2, Fabian Cremer4, Harald Lordick1, Dennis Mischke3, Timo Steyer5

1Steinheim-Institut (STI), Germany; 2Theodor-Fontane-Archiv, Universität Potsdam; 3Netzwerk Digitale Geisteswissenschaften, Universität Potsdam; 4Leibniz-Institut für Europäische Geschichte (IEG); 5Universitätsbibliothek Braunschweig

Der Beitrag stellt die aktuellen technischen Entwicklungen, organisatorischen Strukturen und konzeptionellen Ideen rund um die DHd-Abstracts vor und setzt die seit 2018 community-getriebenen Aktivitäten zur Verbesserung der Abstracts als (Daten)publikation fort. Das Poster stellt die Organisation und die Arbeit der DHd-Abstracts-Task-Force vor, die die weitere Standardisierung, Anreicherung und Nachnutzung der DHd-Abstracts im Zusammenspiel mit dem durch den DHd-Verband eingesetzten Data Steward verfolgt. Neben konkreten technischen Aufgaben (Publikationsprozesse, Normdaten-Annotation, Indexierung) werden im Austausch mit der Community inhaltliche Aspekte diskutiert und neue Impulse entwickelt. Neben der Diskussion möchte der Beitrag auch zur Mitarbeit im Rahmen der Task-Force ermutigen.



‚Arbeitskulturen‘ im Wandel - Erfahrungen und Entwicklungen in 20 Jahren DH-Praxis

Alexander Czmiel, Frederike Neuber

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

In seiner zwanzigjährigen Geschichte hat TELOTA (kurz für „The Electronic Life Of The Academy“), die DH-Abteilung der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), mehrfach die eigenen Arbeitsstrukturen evaluiert und überarbeitet. Ausgehend von den Entwicklungen und den Herausforderungen der Projekt- und Personenkonstellationen wird der Vortrag eine seit etwa 2020 bei TELOTA etablierte Organisationsstruktur, die Team, Projekte und Forschungssoftwareentwicklung umfasst, vorstellen sowie Erfahrungen in der Umsetzung reflektieren.



Kontrastive Textanalyse mit pydistinto - Ein Python-Paket zur Nutzung unterschiedlicher Distinktivitätsmaße

Keli Du, Julia Dudar, Cora Rok, Christof Schöch

Universität Trier, Germany

In den Computational Literary Studies (CLS) werden statistische Distinktivitätsmaße eingesetzt, um Features zu bestimmen, die charakteristisch für eine Textgruppe im Vergleich mit einer anderen Textgruppe sind. Allerdings erweisen sich die meisten vorhandenen Tools als ungeeignet, wenn Nutzer:innen ihre Analysen anpassen und eigene Parametereinstellungen vornehmen oder bestimmte Datenformate nutzen wollen. Um den Einsatz relevanter Maße für die kontrastive Textanalyse zu erleichtern und das Bewusstsein für die Vielfalt der Maße zu schärfen, entwickeln wir ein Python-Paket mit dem Namen pydistinto. Mithilfe von pydistinto können Nutzer:innen auch mit geringen Programmier- und Statistikkenntnissen zwei Textkorpora mit unterschiedlichen Maßen miteinander vergleichen, und in einem fortgeschrittenen Modus auch die Eigenschaften und Leistungsfähigkeit der unterschiedlichen Maße empirisch ermitteln und gegenüberstellen. Durch Tabellen und Abbildungen werden in dem geplanten Poster vor allem die folgenden Aspekte unseres Pakets vorgestellt: die Möglichkeiten der Vorverarbeitung der Textdaten, die implementierten Distinktivitätsmaße und die Visualisierung der kontrastiven Analyseergebnisse.



Webservice correspSearch – Version 2

Stefan Dumont1, Sascha Grabsch1, Jonas Müller-Laackman2

1Berlin-Brandenburgische Akademie der Wissenschaften; 2Freie Universität Berlin

Der Webservice correspSearch (https://correspSearch.net) aggregiert Briefmetadaten aus gedruckten und digitalen Editionen und machte diese über eine Weboberfläche durchsuchbar. Die soeben veröffentlichte Version 2 des Webservices löst den bisherigen Prototypen ab und stellt zahlreiche neue Suchfunktionalitäten zur Verfügung.

Visualisierungen direkt im Suchinterface und eine umfangreiche Facettierung verbessern in der neuen Version sowohl den explorativen Zugang wie auch die gezielte Drill-Down Suche. Die neu entwickelte Anreicherung der normdatenbasierten Briefmetadaten aus Normdatenbanken erlauben (beispielsweise) die Suche anhand des Geschlechts der Korrespondent:innen. In Zukunft werden auch Suchen nach Briefen von bestimmten Berufsgruppen (Musiker:innen, Philolog:innen etc.) und die schlagwortbasierte Suche in Briefen ermöglicht.

Die Anreicherung der Briefmetadaten mit Geokoordinaten bildet die Grundlage für die neue Funktion der kartenbasierten Suche: hier kann auf einer Karte eine freie Region oder vordefinierte historische Staatsgebiete eingezeichnet werden, in der alle Orte als Schreib- oder Empfangsort enthalten sind. In Kombination mit Datumsangaben können damit ereignisbasierte Suchen realisiert werden.



Grenzüberschreitendes Textmining von Historischen Zeitungen: Das impresso-Projekt zwischen Text- und Bildverarbeitung, Design und Geschichtswissenschaft

Maud Ehrmann2, Estelle Bunout1, Simon Clematide3, Marten Düring1, Andreas Fickers1, Daniele Guido1, Roman Kalyakin1, Frederic Kaplan2, Matteo Romanello2, Paul Schroeder1, Philip Ströbel3, Thijs van Beek1, Martin Volk3, Lars Wieneke1

1Luxembourg Centre for Contemporary and Digital History (C2DH), Luxembourg; 2École polytechnique fédérale de Lausanne ‐ EPFL; 3University of Zurich

impresso. Media Monitoring of the Past ist ein interdisziplinäres Forschungsprojekt, in dem Wissenschaftler und Wissenschaftlerinnen aus der Computerlinguistik, Design und den Geschichtswissenschaften an der Anreicherung eines Korpus aus schweizerischen und luxemburgischen Zeitungen arbeiten. Ziel ist es, die Qualität von text mining Werkzeugen für historische Zeitungstexte zu verbessern, historische Zeitungen mit zusätzlichen Informationen anzureichern und diese mit Hilfe einer neu entwickelten Benutzeroberfläche in den historischen Forschungsprozess zu integrieren. In diesem Beitrag präsentieren wir unseren Ansatz, den damit verbundenen Herausforderungen mit Hilfe eines interdisziplinären Teams und eines Co-Design-Ansatzes gerecht zu werden. Wir geben dazu einen Überblick über die wesentlichen Schritte der Dokumenten- und Textverarbeitung und deren Repräsentation innerhalb der Benutzeroberfläche.



Brücken bauen für Buddha

Frederik Elwert, Jessie Pons

Ruhr-Universität Bochum, Germany

Das BMBF-geförderte eHeritage-Projekt Digitalisierung Gandharischer Artefakte (DiGA) digitalisiert knapp 2.000 Objekte buddhistischer Kunst aus der historischen Region Gandhāra, die derzeit in zwei Sammlungen in der pakistanischen Provinz Khyber Pakhtunkhwa aufbewahrt werden. Das Projekt macht dabei nicht nur die physisch schwer erreichbaren Skulpturen der Forschung zugänglich, sondern hat sich zum Ziel gesetzt, Brücken auf mehreren Ebenen zu bauen: Zwischen der traditionellen Forschung und den Digital Humanities, indem bestehende Praktiken und Referenzwerke der südasiatischen Kunstgeschichte und der Buddhologie mit Best Practices der digitalen Kulturerbeforschung verbunden werden. Zwischen den digitalisierten Sammlungen und anderen, bestehenden und zukünftigen Projekten, indem im Rahmen einer Arbeitsgruppe des Pelagios-Netzwerks gemeinsam Standards für die Erschließung und Verlinkung etabliert werden. Und zwischen Ländern und Kontinenten, indem der Dialog zwischen der europäischen Forschungslandschaft und den Kulturerbeeinrichtungen in Khyber Pakhtunkhwa intensiviert wird. Das Poster präsentiert die Ergebnisse der ersten Digitalisierungsphase sowie die im Projekt erstellen Thesauri und Gazetteers.



The Digitized minutes of the Habsburg Governments, 1848-1918

Wladimir Fischer-Nebmaier, Stephan Kurz, Richard Lein

Österreichische Akademie der Wissenschaften, Austria

The minutes of the Austrian government have been published and scholarly edited since the late 1960s. Now they are being retrodigitized. The Austrian minutes of 1867 onwards are a born digital project.

The web-app presents all minutes in one spot, including the retrodigitized Austro-Hungarian and the facsimile Hungarian minutes of 1867 onwards.

The born digital edition boasts structured XML-text according to TEI standards, including named entities and references to repositories containing facsimile legal texts, parliamentary proceedings, institutional catalogs, a geographically referenced database, a prosopographical and institutional database and a Zotero bibliography.



Fidus Writer als Alternative zum DH ConValidator? Ein Prototyp

Henning Gebhard

Universität Trier, Germany

XML-TEI hat sich als für die digitale Publikation und Langzeitarchivierung angemessenes Dateiformat etabliert und wird unter Anderem für den Einreichungsprozess der Abstracts für die Jahrestagungen des DHd-Verbands verwendet. Es ist jedoch für viele nicht das Format der Wahl beim Verfassen ihrer Texte. Die aktuelle Lösung – die Nutzung eines Online-Tools zur Umwandlung von Office-Dokumenten in XML-TEI – ist fehleranfällig und unbequem sowohl für die Einreichenden als auch für diejenigen, die das Book of Abtracts erstellen. Vor diesem Hintergrund wurde im Rahmen einer Masterarbeit der Prototyp einer möglichen Alternative entwickelt, aufbauend auf Fidus Writer, einem webbasierten WYSIWYG Editor mit starkem Fokus auf wissenschaftlichem Schreiben. Er erlaubt das kollaborative Verfassen von Texten, die Eingabe relevanter Metadaten und die Verwaltung der Literaturangaben. Für die Eignung für DH-Konferenzen wurde ein Exporter neu entwickelt, der FW Dokumente als TEI speichern kann. Für das Poster ist geplant, die Nutzung des Prototypen zu präsentieren.



DH2go - Lehr- und Lernumgebung für die Digital Humanities

Malte Heckelen, Claus-Michael Schlesinger, Fabienne Burkhard

Universität Stuttgart, Germany

Aus den Anforderungen unserer eigenen Lehre im Stuttgart Master Digital Humanities gewachsen, ist DH2go eine Lehr- und Lernumgebung für die praxisorientierte Lehre im Bereich DH.

DH2go bietet über die Remote-Desktop-Software X2Go einen GUI-basierten Zugriff auf einen Lehr- und Lernserver, der bereits alle der üblicherweise in der Lehre eingesetzten Tools, Sprachen und Daten beinhaltet. Neben diesen bieten wir nützliche Funktionen wie etwa Tauschordner für unsere Teilnehmer*innen. Da nur noch eine Software, X2Go, installiert werden muss, kann die Lehre gleich zu den Inhalten schreiten.

In unserer eigenen Lehre sowie Erfahrungen aus Workshops konnten wir feststellen, dass dieser Ansatz nicht nur Installationsprobleme behebt, sondern auch die technische Kommunikation von Teilnehmer*innen untereinander und mit Kursleiter*innen fördert.

Über mehrere Jahre der Nutzung und Weiterentwicklung haben wir DH2go auf bewährte Anwendungsfälle fokussiert und uns im Wintersemester 2021/2021 für eine Konsolidierung als selbst-implementierbares Konzept (dank Dokumentation) und als Service (auf Anfrage) entschieden.



Informationstechnologische Gedächtnisarbeit in der Rezensionszeitschrift RIDE

Ulrike Henny-Krahmer1, Frederike Neuber2, Martina Scholger3

1Universität Rostock, Germany; 2Berlin-Brandenburgische Akademie der Wissenschaften; 3Universität Graz

Seit 2014 gibt das Institut für Dokumentologie und Editorik (IDE) die digitale Rezensionszeitschrift RIDE (A Review Journal for Digital Editions and Resources) heraus. Mit derzeit (Stand Juli 2021) 70 Rezensionsartikeln zu digitalen wissenschaftlichen Editionen, Textsammlungen sowie Tools und Forschungsumgebungen ist es RIDE in den letzten sieben Jahren gelungen, Rezensionen verstärkt in den Digital Humanities zu verankern. Das Poster wird die technischen Grundlagen RIDEs illustrieren und damit einen Blick “hinter die Kulissen” gewähren. Neben einer Beschreibung des derzeitigen Workflows soll der Beitrag demonstrieren, dass die strukturelle und semantische Codierung der Inhalte sowie die Begleitung der Rezensionen durch Kriterien und Fragebögen dazu führen, dass RIDE neben dem Angebot von Texten auch vermehrt datengestützte Zugänge bietet. Die Arbeit an einem digitalen Rezensionsjournal wird so vermehrt zu informationstechnologischer Gedächtnisarbeit.



Linked Open Data für die Literaturgeschichtsschreibung: das Projekt "Mining and Modeling Text"

Maria Hinzmann, Christof Schöch, Katharina Dietz, Anne Klee, Katharina Erler-Fridgen, Julia Röttgermann, Moritz Steffes

Universität Trier, Germany

Im Umgang mit dem stetig wachsenden ‚digitalen Kulturerbe‘ bietet die Weiterentwicklung der systematischen Datenerschließung und Wissensrepräsentation bisher nicht ausgeschöpfte Potentiale für die Literaturgeschichtsschreibung. Vor diesem Hintergrund werden im Projekt "Mining and Modeling Text" (MiMoText) quantitative Methoden der Informationsextraktion (‚Mining‘) und Datenmodellierung (‚Modeling‘) ineinander verschränkt, um ein literaturgeschichtliches Informationssystem aufzubauen. Die Transferierbarkeit in andere Domänen wird berücksichtigt. Zentrales Anliegen ist es, den Bereich der quantitativen Methoden zur Extraktion, Modellierung und Analyse geisteswissenschaftlich relevanter Informationen aus umfangreichen Textsammlungen weiterzuentwickeln und aus interdisziplinärer (geistes-, informatik- und rechtswissenschaftlicher) Perspektive zu erforschen.



Mediatheken der Darstellenden Kunst digital vernetzen

Klaus Illmayer1, Sara Tiefenbacher2, Franziska Voß2, Julia Beck2, Christine Henninger3, Maxim Wittenbecher3

1Österreichische Akademie der Wissenschaften, Austria; 2Universitätsbibliothek Johann Christian Senckenberg; 3Internationales Theater Institut Deutschland, Berlin / Mediathek für Tanz und Theater

Im Poster wird das laufende Projekt "Mediatheken der Darstellenden Kunst digital vernetzen" vorgestellt, welches Metadaten zu audiovisuellen Aufzeichnungen von Tanz- und Theateraufführungen aus verschiedenen Institutionen zusammenführen und für Forscher*innen und Künstler*innen zur Verfügung stellen wird. Der Hintergrund und die Ziele des Projekts werden erklärt, sowie die technische Infrastruktur und die digitalen Verfahren, die angewandt werden.



Digitale Texte vom Religionsfrieden bis hin zum Liebesbrief - Das Zentrum für digitale Editionen in Darmstadt stellt sich vor

Silke Kalmer, Dario Kampkaspar, Sophie Müller, Melanie E.-H. Seltmann, Jörn Stegmeier, Kevin Wunsch

TU Darmstadt, Universitäts- und Landesbibliothek

Das Zentrum für digitale Editionen in Darmstadt (ZEiD) deckt alle Aspekte der Aufbereitung von Texten für wissenschaftliche Editionen und alle Bereiche digitaler Editionen von der Planung bis zur Veröffentlichung ab. Dabei bearbeitet es nicht nur bibliothekseigene Bestände, sondern fungiert auch als Partner für externe Projekte, etwa das Akademienprojekt „Europäische Religionsfrieden Digital“ oder auch das durch das BMBF-geförderte Projekt „Gruß & Kuss“.

In einem Workflow von der Texterfassung (OCR) der Digitalisate über das Erstellen und Bearbeiten der XML-Grundlage bis hin zur Realisierung der digitalen Edition als Online-Präsentation wird die wissenschaftliche Erfassung der Texte garantiert und Einheitlichkeit der Texte aus verschiedenen Projekten in der Infrastruktur des Zentrums gegeben. Das Poster geht auf diesen Workflow, das verwendete Framework sowie verschiedene vom ZEiD realisierte Projekte ein.



Beyond Budweiser: Creating a Digital Archive of Popular German-American Newspaper Literature

Jana Keck1, Andre Blessing2

1German Historical Institute Washington DC; 2Universität Stuttgart, Institut für Maschinelle Sprachverarbeitung

Who gets to be historicized by ways of (digital) record creation? Digitized C19 German-American newspapers in Chronicling America provide a fruitful platform both to (re-)evaluate stories about migrants that differ in gender, class, age, or (national) identities and to (re-)search how information spread across time and space. However, they offer no innovative methods to analyze the sheer bulk of heterogenous material. To foster further research in the field, we are creating an expanded version of Chronicling America’s German-American newspaper repository. In this digital archive, users will have the opportunity to access a novel dataset to study popular newspaper literature that will expand and diversify the canon and history of German-American culture. The dataset will consist of approximately 500,000 viral texts ranging from “factual texts” about tips on how to nurse children, “short stories” by unknown female writers, to nationalistic “poems” about Germania that were previously computationally classified into genres.



Ein Thesaurus für die digitale Edition der Ästhetikvorlesungen von Friedrich Schleiermacher

Holden Kelm, Lou Klappenbach

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

Die Ästhetikvorlesungen von Friedrich Schleiermacher (1768-1834) sind Bestandteil des ästhetischen Diskurses der klassischen deutschen Philosophie, sind aber als Bestandteil dieses Diskurses noch nicht hinreichend untersucht worden. Das sich diesem Desiderat widmende DFG-Projekt, das mit dem Akademienvorhaben „Schleiermacher in Berlin 1808-1834“ assoziiert ist, stellt die Frage, wie die Ästhetikvorlesungen aufgrund von digitalen Methoden erschlossen, wie sie in ihrem Verlauf untersucht und in ihrem philosophiehistorischen Kontext kritisch dargestellt werden können. Zur Bearbeitung dieser Forschungsfrage wurde beschlossen, die Annotation, Definition und Referenzierung von signifikanten Themen und Begriffen der Vorlesungen mit einem digitalen Thesaurus vorzunehmen. Die Vorlesungen werden für digitale und für Druck-Editionen mit ediarum, einem oXygen-Framework für den Author-Modus des oXygen XML-Editors erschlossen. Da semantische Modellierungsformen wie Thesauri bisher nicht in ediarum integriert sind, wird im Ästhetik-Projekt ein eigenes Framework entwickelt. Das geplante Poster illustriert diese für das Projekt zentrale digitale Methode: das von der Digital Humanities Arbeitsgruppe TELOTA entwickelte Tool ediarum.SKOS.



„Das Puzzle zusammensetzen“: Von analogen Dokumentensammlungen zu datenbankbasierten Biografien sowjetischer Kriegsgefangener des Zweiten Weltkriegs

Sebastian Kindler, Katrin Wolf

Deutsches Historisches Institut Moskau, Germany

Viele der Einzelschicksale der insgesamt mehr als fünf Millionen Personen, die im Zweiten Weltkriegs als Angehörige der Roten Armee in deutsche Kriegsgefangenschaft gerieten, sind bis heute unbekannt. Das DHI Moskau recherchiert innerhalb des deutsch-russischen Projekts „Sowjetische und deutsche Kriegsgefangene und Internierte“ Archivdokumente zu diesen Personen. Vorhandene Dokumente werden digitalisiert und die enthaltenen Angaben indexiert, um Digitalisate und Informationen gemeinsam als Gefangenenbiografien für Forschung und Schicksalsklärung verfügbar zu machen. Die Gefangenenbiografien bestehen aus allen kumulierten Informationen aus unterschiedlichen Dokumenten und Quellen, die zu einer bestimmten Person vorhanden sind und betreffen den gesamten Zeitraum von ihrer Gefangennahme, über Lageraufenthalte, Tod bzw. Befreiung sowie eine eventuell aufgrund der Gefangenschaft erlebte erneute staatliche Repression nach Rückkehr in die Sowjetunion. Ziel des Posters ist es, die unterschiedlichen Arbeitsabläufe und die häufig notwendigen Kompromisse im Sinne eines „best practise“-Modells bei der Gewinnung von großen Datenmengen und heterogenen Datentypen und deren abschließender Bearbeitung vorzustellen.



Volltexterkennung für historische Sammlungen mit OCR4all-libraries iterativ und partizipativ gestalten

Jan Sebastian Klaes1, Kristof Korwisi2, Katharina Krüger1, Christian Reul3, Nadine Towara1

1Georg Eckert Institute for International Textbook Research. Member of the Leibniz Association; 2University of Würzburg Human-Computer Interaction, Germany; 3University of Würzburg Centre for Philology and Digitality, Germany

Mit der Initiierung und Durchführung von Massendigitalisierungsprojekten haben Bibliotheken eine wesentliche Grundlage für den Zugang und die Nutzung digitaler Quellen geschaffen. Vor dem Hintergrund der Weiterentwicklung digitaler Forschungsmethoden u.a. im Bereich der Digital Humanities stellt sich nun zunehmend die Frage nach der Qualität insbesondere der Volltexte. Die Zusammenarbeit zwischen dem Georg-Eckert-Institut - Leibniz-Institut für internationale Schulbuchforschung (GEI), dem Zentrum für Philologie und Digitalität “Kallimachos” (ZPD) und dem Lehrstuhl für Mensch-Computer-Interaktion (HCI) der Universität Würzburg zielt darauf ab, das GUIbasierte Open-Source-Werkzeug OCR4all so zu erweitern und anzupassen, dass Bibliotheken und Archive bei ihrer Massendigitalisierung die im Rahmen des von der DFG geförderten OCR-D-Verbundprojekts erarbeiteten Lösungen niederschwellig, flexibel und eigenständig einsetzen können.

Forscher*innen als wichtige Zielgruppe von Forschungs- und Spezialbibliotheken profitieren mit der Weiterentwicklung von OCR4all von der Möglichkeit OCR-Prozesse iterativ und partizipativ mitgestalten zu können.



Text-Bild-Gefüge. Digital Humanities und der Diskurs der Moderne

Franziska Klemstein

Bauhaus-Universität Weimar, Germany

Ziel des auf dem Poster vorgestellten Projektes ist die Entwicklung einer virtuellen Forschungsumgebung, die eine enge Verzahnung von text- und bildzentrierten Themen, Methoden und Techniken erlaubt. Diese Forschungsumgebung wird den Zugriff auf einen digitalen Korpus von historischen Print-Quellen ermöglichen, die sowohl Texte als auch Bilder enthalten. In Kollaboration und unter Einsatz flexibler (lernfähiger) Informationsextraktionsverfahren sowie Text- und Bildanalysetechnologien wird dieser Korpus systematisch erschlossen. Die Entwicklung der Forschungsumgebung wird dabei zum Gegenstand und Bezugspunkt von historisch informierten und theoretisch reflektierten Überlegungen zum Verhältnis von Text und Bild und den interdisziplinären Potentialen der heutigen Geisteswissenschaften werden. Darüber hinaus wird sie den Impuls und die Grundlage dafür bilden, weitere digitale Korpora mit Blick auf Text-Bild-Gefüge systematisch zu erschließen und auszuwerten.

Der Posterbeitrag soll Einblicke in den gegenwärtigen Stand des Projektes geben sowie erste Analysergebnisse aufzeigen.



Zeitgeschichte untersuchen: Topic Modeling von #blackouttuesday-Inhalten auf Instagram

Aenne Knierim, Michael Achmann, Christian Wolff

Universität Regensburg, Germany

Das Forschungsprojekt dient der Untersuchung des New Social Movements Black Lives Matter und spezifisch den Solidaritätsbezeugungen am #blackouttuesday als Reaktion auf die Ermordung George Floyds. Um Sujets und Themen der Instagram-Nutzer*Innen rundum #blackouttuesday zu identifizieren und deren quantitative Analyse zu ermöglichen, wird ein Korpus aus den Bildunterschriften von Posts mit dem #blackouttuesday vom 02.06.2020 erstellt. Unter Anwendung des Latent Dirichlet Allocation Algorithmus sollen Topics gefunden werden. So kann der Diskurs über racial justice mit der quantitativen Methode des Topic Modeling untersucht werden. Das Forschungsprojekt kann in den Bereich der digitalen Kulturwissenschaft eingeordnet werden.



Corpus Nummorum - eine digitale Forschungsinfrastruktur für antike Münzen

Jan Köster, Claus Franke, Ulrike Peter

Berlin-Brandenburg. Akademie der Wissenschaften, Germany

Das an der BBAW beheimatete Drittmittelprojekt Corpus Nummorum hat die Erschließung, Typologisierung und Webpublikation antiker griechischer Münzen unter Verwendung numismatischer Normdaten sowie Verfahren wie Natural Language Processing und Bilderkennung zum Ziel. Im Rahmen des Projekts entstand zudem das Open-Source-Tool CN Editor, eine Web-App, die den Dateneingabe-Workflow des Projekts vollständig händeln kann und umfangreiche Funktionen zur Suche und Optimierung bereitstellt. Das Corpus Nummorum pflegt eine enge Zusammenarbeit mit diversen internationalen Partnern sowie der numismatischen Community. Es bildet einen wichtigen Teil der digitalen Forschungsinfrastruktur zur Erforschung und Kuratierung des kulturellen Erbes der Menschheit.



Who CAREs, really?

Felix Lange, Heinz-Günter Kuper, Anja Müller, Kilian Amrhein, Marco Klindt, Anna-Lena Nowicki

Zuse-Institut Berlin, Germany

Spätestens seit dem „Rapport sur la restitution du patrimoine culturel africain. Vers une nouvelle éthique relationnelle“ von Sarr und Savoy (2018) ist die Diskussion über den Umgang europäischer Gedächtnisinstitutionen mit ihren Sammlungen aus kolonialen Kontexten neu entbrannt. Welche Bedeutung hat in diesem Zusammenhang die Digitalisierung von Objekten des kulturellen Erbes? Das Poster veranschaulicht diese Frage am Beispiel der "Ethnografica"-Sammlung im Nachlass von Karl Schmidt-Rottluff aus dem Bestand des Brücke-Museums Berlin. Diese Sammlung wird im Rahmen eines Digitalisierungs-Projekts durch das Forschungs- und Kompetenzzentrum Digitalisierung Berlin (digiS) begleitet. Um verschiedene Perspektiven auf digitale Objekte gleichberechtigt sichtbar zu machen und dabei die CARE-Regeln nicht zu missachten, untersucht digiS verschiedene technologische Ebenen.



Entdeckung der Korrespondenz Alexander von Humboldts durch Such- und Visualisierungsfunktionen

Axelle Lecroq

BBAW, Germany

Die Korrespondenz des Naturforschers und Reisenden Alexander von Humboldt umfasst schätzungsweise mehrere zehntausend Briefe und ist einer der profiliertesten Briefpartner seiner Zeit. In diesem Poster wird die erste Phase des experimentellen Projekts vorgestellt, die darin besteht, Jupyter Notebooks zu verwenden. DieSuchfunktionen und Visualisierungen ermöglichen dem Benutzer auf die Daten und das Archivdokument zuzugreifen und die Korrespondenz des Wissenschaftlers besser zu verstehen.



Leben, Werke und Datensilos. Zur Verknüpfung und Visualisierung von im/materiellen Komponenten des kulturellen Erbes

Eva Mayr, Johannes Liem, Nicole High-Steskal, Anja Grebe, Florian Windhager

Universität für Weiterbildung Krems, Austria

Obwohl die Aggregation von Kulturdaten in Europa mit der Plattform Europeana bereits Tradition hat, wurden und werden viele Aspekte von immateriellen Kulturdaten bislang isoliert digitalisiert und akkumuliert. Um ein besseres Bild von der Reichhaltigkeit und den kontextuellen Einbettungen des kulturellen Erbes zu vermitteln, bedarf es der Verbindung von materiellen Objektsammlungen mit assoziierten immateriellen Narrativen und Geschichten. Das H2020-Projekt InTaVia führt mit dieser Zielsetzung materielles und immaterielles Kulturerbe digital zusammen und entwickelt visuelle Perspektiven für die synoptische Analyse und Kommunikation von Leben und Werken der europäischen Kulturgeschichte. Dazu wurden in zwei Wokshops Forscher*innen und Expert*innen aus Kulturerbeeinrichtungen nach ihren Praktiken, Bedürfnissen und Anforderungen befragt. Die Ergebnisse dokumentieren Anforderungen für DH-Anwendungen im Bereich des kulturellen Erbes, sowie für Projekte im expandierenden Feld von verlinkten und offenen Daten.



Analyse der Rezeption von Telenovelas und Serien über lateinamerikanische Geschichte durch Algorithmen

Holle Ameriga Meding, Mónika Contreras Saiz, Hannah Muessemann

Freie Universität Berlin, Germany

Das vom BMBF geförderte Forschungsprojekt GUMELAB - unter der Leitung von Prof. Dr. Stefan Rinke und Dr. Mónika Contreras Saiz - untersucht die Konstruktion, Vermittlung und trans-/nationale Rezeption lateinamerikanischer Geschichte und Erinnerung anhand von Telenovelas und Serien sowie deren Auswirkungen auf die politische Einstellung und das Geschichtsbewusstsein der Zuschauer:innen.

Die Anwendung digitaler Methoden zur Erfassung und Auswertung von Quellenmaterial und Daten aus sozialen Medien spielt dabei eine zentrale Rolle, allen voran die Entwicklung von Algorithmen zur Erfassung der vermittelten Erinnerungsbilder. Diese bilden später die methodische Grundlage für die Etablierung des Labors für Erinnerungsforschung und digitale Methoden an der Freien Universität Berlin, welches als Raum für interdisziplinäres Experimentieren bei der Entwicklung digitaler Methoden für die sozial- und geisteswissenschaftliche Forschung dienen wird.



Aktualität und Gedächtnis. Zur korpusanalytischen Untersuchung von Gegenwartsliteratur auf Twitter

Simon Meier-Vieracker1, Elias Kreuzmair2

1TU Dresden, Germany; 2Universität Greifswald, Germany

Twitter gilt als besonders präsentisches Medium, das in besonderer Weise zu gegenwartsbezogenem Schreiben einlädt. Zugleich machen die medialen Affordanzen der Persistenz und der Durchsuchbarkeit die Plattform zu einem umfassenden Archiv und Medium des digitalen Gedächtnisses. Dieses Spannungsverhältnis von gegenwartsbezogenem Schreiben und digitalem Archiv wird auch im gegenwartsliterarischen Diskurs auf Twitter immer wieder thematisch.

Zur korpuslinguistischen Analyse von Gegenwartsliteratur und ihrer Selbstreflexion auf Twitter wurde für das DFG-Projekt "Schreibweisen der Gegenwart" ein gut 3,5 Mio. Wörter großes Twitterkorpus erstellt, das über die Tweettexte hinaus auch umfangreiche Metadaten einschießlich interaktiver Aspekte wie Reply-Strukturen umfasst. Damit ist das Korpus eine Fixierung eines eigentlich fluiden Diskurses. Auf dem Poster werden wir unsere Pipeline für die Korpuserstellung und unser Datenmodell vorstellen und anhand exemplarischer Analyseergebnisse zu Zeitreflexionen auf Twitter die methodologischen Schwierigkeiten diskutieren, die sich aus der Fixierung eines fluiden Medienformates ergeben.



GitMA-Poster: CATMA-Daten via Git abrufen und mittels Python-Bibliothek weiterverarbeiten

Malte Meister, Michael Vauth, Dominik Gerstorfer

Technische Universität Darmstadt, Germany

Seit CATMA Version 6.0 kann auf Projektdaten in Form von Git Repositorien zugegriffen werden. Im Fachbereich für Digital Philology an der TU Darmstadt ist außerdem eine Python-Bibliothek entstanden, die einen einfachen Zugriff auf diese zulässt. Die Bilbiothek ermöglicht die Weiterverarbeitung der Annotationen mit gängigen Python Datascience-Tools. Das Poster wird eine Art Bedienungsanleitung für die Nutzung des CATMA Git Access und der Python-Bibliothek sein.



FDM-Awareness in Zeiten von Corona: Sammelkarten zum Forschungsdatenmanagement „Daten & Datteln digital“

Elisabeth Mollenhauer, Felix Rau

Universität zu Köln, Germany

Im Rahmen seiner Öffentlichkeitsarbeit hat das Data Center for the Humanities (DCH) an der Universität zu Köln den Auftrag, Wissenschaftler:innen über Aspekte des Umgangs mit Forschungsdaten und des Forschungsdatenmanagements (FDM) zu informieren. Mit Beginn der Corona-Pandemie 2020 mussten neben Sprechstunde und Lehre in Präsenz auch die als Awareness-Initiative geplanten Kurzvorträge zu einzelnen FDM-Aspekten „Daten & Datteln“ ausfallen. Stattdessen wurden die Inhalte in ein digitales Vermittlungsformat transferiert und als kompakte Sammelkarten an die Mitglieder der Philosophischen Fakultät und die interessierte Öffentlichkeit (via Twitter) kommuniziert. Das Poster dokumentiert und reflektiert, wie die Kommunikationsstrategie des DCH an die Pandemiebedingungen angepasst worden ist, um weiterhin sichtbar zu sein und FDM-Aspekte niederschwellig vermitteln zu können, und welche Mehrwerte und Möglichkeiten der Nachnutzung dabei entstanden sind.



Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses: Ein DFG-Projekt in der Rückschau.

Melissa Müller

Universität Hamburg, Germany

Das Poster zeigt anhand eines mit literaturwissenschaftlichen und linguistischen Annotationen versehenen Korpus, das alle Dramen von Andreas Gryphius (1616-1664) enthält, die Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses auf. Es wird auch dargestellt, wie diese Form der Datenaufbereitung Einfluss auf das kulturelle Gedächtnis bzw. dessen Beschaffenheit hat.



Das zoroastrische Mittelpersische - digitales Corpus und Wörterbuch (MPCD)

Claes Neuefeind1, Francisco Mondaca1, Øyvind Eide1, Iris Colditz2, Thomas Jügel2, Kianoosh Rezania2, Arash Zeini3, Alberto Cantera3, Chagai Emanuel4, Shaul Shaked4

1Universität zu Köln; 2Ruhr-Universität Bochum; 3Freie Universität Berlin; 4Hebrew University Jerusalem

Mit diesem Beitrag möchten wir das Projekt “Das zoroastrische Mittelpersische - digitales Corpus und Wörterbuch (Middle Persian Corpus and Dictionary, MPCD)” vorstellen, das im April 2021 seine Arbeit aufgenommen hat. Das MPCD-Projekt wird von der DFG als Langfristvorhaben gefördert, mit einer geplanten Laufzeit von insgesamt neun Jahren. Das Vorhaben wird als Kooperationsprojekt der Universitäten Bochum, Berlin, Köln und Jerusalem durchgeführt. Während an den Standorten Bochum, Berlin und Jerusalem der Schwerpunkt auf der philologischen Erschließung des Korpus sowie des darauf aufbauenden Wörterbuchs liegt, ist auf Kölner Seite das Cologne Center for eHumanities (CCeH) für die technische Umsetzung einer kollaborativen Recherche- und Arbeitsumgebung zuständig, deren technischen Entwurf wir in diesem Beitrag thematisieren und zur Diskussion stellen wollen. Dies umfasst neben Aspekten der Datenmodellierung insbesondere die Systemarchitektur und die eingesetzten Technologien.



DiaCollo für GEI-Digital. Ein experimentelles Projekt zur weiteren Erschließung digitalisierter historischer Schulbuchbestände

Maret Nieländer1, Bryan Jurish2, Christian Scheel1

1Georg-Eckert-Institut - Leibniz-Institut für internationale Schulbuchforschung, Germany; 2Berlin-Brandenburgische Akademie der Wissenschaften

„DiaCollo für GEI-Digital“ ist ein experimentelles Projekt zur Erschließung digitalisierter und mit OCR behandelter historischer deutschsprachiger Schulbuchbestände für die Nutzung mit computerlinguistischen Werkzeugen und Methoden wie der diachronen Kollokationsanalyse mit „DiaCollo“. Das Poster beschreibt a) die Korpuserstellung mit mehr als 5000 Werken der digitalen Schulbuchbibliothek „GEI-Digital“ des Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung, b) die Zurverfügungstellung der aufbereiteten Daten mit der D* Korpusmanagement-Umgebung des Zentrums Sprache an der Berlin-Brandenburgischen Akademie der Wissenschaften, c) die Bemühungen um die Usability für Nutzer:innen aus anderen Fachdisziplinen mittels eines ausführlichen Tutorials sowie d) einige Befunde bezüglich der Passung der Werkzeuge und dieses Korpus‘, das sich von anderen an der BBAW verfügbaren diachronen Korpora in Bezug auf die OCR-Qualität und Charakteristika von Genre und Sammlungskonzept unterscheidet. Ein Ausblick schildert geplante weitere Arbeiten.



Das DFG Schwerpunktprogramm Computational Literary Studies

Steffen Pielström1, Kerstin Jung2

1Julius-Maximilians-Universität Würzburg, Germany; 2Universität Stuttgart, Germany

Die Computational Literary Studies (CLS) sind ein interdisziplinäres Forschungsfeld in dem computergestützte Verfahren zur Analyse literaturwissenschaftlicher Fragestellungen zum Einsatz kommen. Insgesamt elf Einzelprojekte, die zur Zeit in diesem Emerging Field arbeiten, gehören dem seit 2020 aktiven Schwerpunktprogramm SPP 2207 "Computational Literary Studies" an. In den einzelnen Projekten kooperieren erfahrene Digital Humanists mit Literaturwissenschaftler*innen, um an aktuellen Fragen der Literaturwissenschaft zu arbeiten. Die Forschung im SPP 2207 deckt ein breites Spektrum der deutschsprachigen Literatur ab. Hinzu kommen methodologische Untersuchungen die zum Ziel haben, das methodische Repertoire der CLS für die spezifischen Anforderungen des Faches zu validieren und weiter zu entwickeln. Angesichts der Vernetzung und Verankerung nahezu aller Programmbeteiligten in der Fachcommunity sieht sich SPP 2207 als Multiplikator für diese gesamte CLS-Community. Mit dem vorliegenden Poster stellt SPP 2207 die beteiligten Forschungsprojekte und projektübergreifenden Arbeitsgruppen vor und informiert über anstehende Events.



Anpassungen von LERA zum Vergleich hebräischer Textzeugen des kabbalistischen Traktats Keter Shem Ṭov

Marcus Pöckelmann, Bill Rebiger

Martin-Luther-Universität Halle-Wittenberg, Germany

LERA ist ein an der Martin-Luther-Universität Halle-Wittenberg entwickeltes interaktives webbasiertes Kollationierungswerkzeug zum automatischen Vergleich von unterschiedlichen Versionen eines Textes, sei es schriftliche Überlieferungen eines (ggf. verloren gegangenen) Manuskripts oder Editionen eines Buches. Ursprünglich entwickelt wurde LERA in den Jahren 2012-2016 zum Vergleich von unterschiedlichen Druckauflagen eines Werkes der französischen Aufklärung (Bremer et al., 2015). Das Werkzeug wurde bzw. wird seitdem in mehreren, auch größeren englisch-, deutsch-, slowenisch- und arabisch-sprachigen Editionsprojekten eingesetzt. Im Rahmen der durch die DFG geförderten Erstellung einer Edition zum aus dem 13. Jahrhundert stammenden kabbalistischen Traktat Keter Shem Ṭov (Molitor et al. 2020) wurde LERA für den Vergleich hebräischer Texte erweitert. Der vorliegende Beitrag geht auf diese Erweiterungen ein und fasst die damit erzielten judaistischen Ergebnisse zusammen.



Mein liebster Schatz! Das Citizen Science-Projekt Gruß & Kuss stellt sich vor

Andrea Rapp1, Stefan Büdenbender2, Nadine Dietz1, Lena Dunkelmann3, Birte Gnau-Franké3, Nina Liesenfeld3, Stefan Schmunk2, Melanie E.-H. Seltmann4, Thomas Stäcker4, Stephanie Werner2, Eva L. Wyss3

1TU Darmstadt; 2Hochschule Darmstadt; 3Universität Koblenz; 4TU Darmstadt, Universitäts- und Landesbibliothek

Gruß & Kuss – Briefe digital. Bürger*innen erhalten Liebesbriefe ist ein innovatives Verbund- sowie Citizen-Science-Projekt, das vom BMBF für den Zeitraum von drei Jahren gefördert wird. Es bindet aktiv Bürger*innen in die Digitalisierung und Erforschung von aktuell über 22.000 deutschsprachigen Liebesbriefen ein. Grundlage des Projekts sind die seit 1997 im Liebesbriefarchiv erst in Zürich, seit 2013 in Koblenz zusammengetragenen Spenden authentischer privater Liebesbriefe von Bürger*innen aus insgesamt drei Jahrhunderten, aus 52 Ländern und in sich wandelnden medialen Formaten.

Im Rahmen des Projekts werden Bürgerforscher*innen von Wissenschaftler*innen methodisch begleitet, unterschiedliche, auch digitale text- und sprachbasierte Untersuchungs- sowie Analysepraktiken durch verschiedene Partizipationsmöglichkeiten durchzuführen. Für die Nachhaltigkeit werden zum einen digitale Werkzeuge erarbeitet, die zur Nachnutzung auch für andere Projekte unterschiedlichster Disziplinen zur Verfügung stehen. Zum anderen wird die so entstehende Edition datenschutzkonform langzeitarchiviert und damit ein Kulturgut gesichert werden, für das bisher kein Sammlungsauftrag besteht.



Muster von “you” und “thou”: Modellierung der Anrede im englischen Sonett

Brigitte Rath

Universität Innsbruck, Austria

Ausgangspunkt dieses Projekts ist die bekannte Beobachtung, dass “thou”, eines der beiden Personalpronomen der 2. Person Singular im Englischen, im Lauf des 17. Jahrhunderts zugunsten von “you” aus der Alltags- und Prosasprache verschwindet. Dennoch wird “thou” in der Lyrik noch zwei Jahrhunderte lang prominent weiterverwendet. Dieses Projekt leistet einen ersten Schritt zur bisher noch nicht untersuchten Frage danach, mit welchen Konnotationen die beiden Pronomen nach dem Sprachwandel in der Lyrik verwendet werden. Mit Daten aus einem selbsterstellten Korpus von über 1300 englischsprachigen Sonetten werden Machine Learning Prediction Modelle trainiert und ihre Vorhersagegenauigkeit gemessen. Es zeigt sich, dass "you" und "thou" entgegen anderslautender Behauptungen in zahlreichen Gedichtkommentaren nicht synonym verwendet werden und die Kategorie der Angesprochenen wohl eine wichtige Rolle bei der Wahl des Pronomens spielt.



Der Dienstekatalog der AG Datenzentren – ein digitales Verzeichnis für Forschungsdatenmanagement-Services in den Geisteswissenschaften

Felix Rau, Patrick Helling

Data Center for the Humanities (DCH), Universität zu Köln, Deutschland

Die langfristige Sicherung, Verfügbarkeit und Nachnutzbarkeit von Forschungsdaten im Sinne der FAIR-Prinzipien ist ein wesentlicher Bestandteil guter wissenschaftlicher Praxis und nicht erst seit den Bestrebungen hin zu einer Nationalen Forschungsdateninfrastruktur (NFDI) ein wichtiger Motor wissenschaftlichen Fortschritts. Die Bedienung fachspezifischer Forschungsdatenmanagement-Bedarfe (FDM) in den Geisteswissenschaften übernehmen u.a. die Mitgliedsinstitutionen der DHd-AG Datenzentren. Die Arbeitsgruppe besteht aus insgesamt 28 Datenzentren und Interessensvertreter*innen, von denen 16 Einrichtungen über FDM-Servicestrukturen verfügen. Sie ergänzen das Forschungsdatenmanagement an ihren Standorten und darüber hinaus um ein geisteswissenschaftliches Profil und erarbeiten passgenaue Lösungsstrategien für die heterogene Forschungs- und Datenlandschaft der Geisteswissenschaften. Um die Sichtbarkeit und Erreichbarkeit einzelner AG-Datenzentren und ihrer FDM-Services zu verbessern, hat die Arbeitsgruppe einen gemeinsamen Dienstekatalog entwickelt, der als durchsuchbare Website verfügbar gemacht wurde und mit dieser Postereinreichung vorgestellt werden soll.



Towards a Computational Study of German Book Reviews. A Comparison between Emotion Dictionaries and Transfer Learning in Sentiment Analysis

Simone Rebora1, Thomas C. Messerli2, J. Berenike Herrmann1

1University of Bielefeld, Germany; 2University of Basel, Switzerland

This poster reports on the groundwork for the computational study of evaluative practices in German language book reviews. We trained classifiers for evaluation and sentiment at sentence level on the LOBO corpus, comprising ~1.3 million book reviews downloaded from the social reading platform LovelyBooks.

For the two classification tasks, we compared performance of dictionary-based and transfer-learning (TL) based sentiment analysis (SA). Our results highlight the higher efficiency of TL-methods and of dictionaries based on vector space models (like SentiArt and AffectiveNorms). They show that computational methods can reliably identify sentiment of book reviews in German.



Beyond the render silo: semantically annotating 3D data within an integrated knowledge graph and 3D-rendering toolchain

Lozana Rossenova1, Zoe Schubert2, Richard Vock3, Ina Blümel4

1TIB – Leibniz Information Centre for Science and Technology; 2SPK – Stiftung Preussischer Kulturbesitz; 3Bonn University; 4TIB – Leibniz Information Centre for Science and Technology, Hannover University of Applied Sciences and Arts

As a result of mass-digitisation efforts, cultural heritage and research institutions have had to adapt their practices to account for shifts in what cultural stewardship and the study of cultural memory entails. Representations of cultural assets in the form of 3D models within disciplines such as architecture, art, archaeology, and 3D reconstruction are particularly heterogeneous in formats and structure, ergo standardized access and visualisation tools face new challenges. Furthermore, cultural memory preservation requires the active participation of diverse audiences who can easily access, search and enrich datasets through annotations and critical interpretations. This poster presents the development of a suite of tools as part of the NFDI4Culture project focusing on such enrichment. The toolchain facilitates the annotation of 3D data within a knowledge graph (Wikibase) and a sophisticated rendering environment (Kompakkt), so that 3D objects’ geometry, attendant metadata and annotations are accessible and searchable as part of the semantic web.



Das optimale Datenmodell: eine Spurensuche im Möglichkeitsfeld der Kodierung

Sanja Saric1,2, Elisabeth Steiner1, Maximilian Vogeltanz2

1Institut Zentrum für Informationsmodellierung - Austrian Centre for Digital Humanities, Universität Graz, Österreich; 2Institut für Sprachwissenschaft, Universität Graz, Österreich

Zu Beginn jedes neuen Projektes in den Digitalen Geisteswissenschaften steht die Frage nach der adäquaten Modellierung der Forschungsdaten. Während im Förderantrag häufig bereits die Nennung vom XML/TEI für Textquellen ausreichend ist, stellt sich das Unterfangen zu Beginn der praktischen Arbeit meist komplizierter dar: Schon die TEI (TEI Consortium 2021) alleine bietet zahlreiche Möglichkeiten ähnliche Sachverhalte zu modellieren und die gewählte Strategie muss dabei jeweils auf das Material, die Forschungsfrage und in weiterer Folge die Archivierung und Weiterverwendung der Daten Rücksicht nehmen. Der hier vorliegende Beitrag stellt die Herausforderungen und Lösungsansätze anhand der Briefkorrespondenz von Hugo Schuchardt vor.



Szenario-basierte Planung eines semantischen Digitalisierungsvorhabens in der digitalen Geschichtswissenschaft

Werner Scheltjens1, Christoph Schlieder2

1Digitale Geschichtswissenschaften, Otto-Friedrich-Universität Bamberg, Germany; 2Kulturinformatik, Otto-Friedrich-Universität Bamberg, Germany

Die Retrodigitalisierung von nicht urheberrechtlich geschützten Bibliothekssammlungen hat der historischen Forschung eine Fülle gedruckter Texte als digitale Quellen zugänglich gemacht. Dabei stoßen HistorikerInnen relativ schnell an die Grenzen der Auswertungsmöglichkeiten vorliegender Digitalisate, die als Ergebnis der „ersten Digitalisierung“ typischerweise einen Scan, einen Volltext und Metadaten zusammenfassen. Anhand eines Nachschlagewerkes des 19. Jahrhunderts über Maß- und Gewichtssysteme führt dieser Beitrag vor, welchen Mehrwert eine zweite oder semantische Retrodigitalisierung für die historisch-metrologische Forschung bietet. Die „zweite Digitalisierung“ strebt die Extraktion und Modellierung der semantischen Struktur des enzyklopädischen Wissens an. Der Beitrag entwickelt ein szenario-basiertes Vorgehen für die Planung der semantischen Modellierung digitalisierter historischer Quellen, das einen von Lodi et al. (2017) vorgeschlagenen Planungsansatz erweitert und konkretisiert. Insbesondere wird gezeigt, wie anhand von Kompetenzfragen beurteilt werden kann, welche semantischen Beziehungen explizit zu repräsentieren sind und welche durch Anfragen abgeleitet werden sollen.



Datenschutz in der wissenschaftlichen Praxis: Der DARIAH-EU ELDAH Consent Form Wizard

Walter Scholger1,5,6, Vanessa Hannesschläger2,5,6, Pawel Kamocki3,5,6, Koraljka Kuzman-Šlogar4,5

1Universität Graz; 2Österreichische Akademie der Wissenschaften (ÖAW); 3Institut für Deutsche Sprache (IDS); 4Universität Zagreb; 5DARIAH-EU WG Ethics and Legality in Digital Arts and Humanities (ELDAH); 6CLARIN-ERIC Legal and Ethical Issues Committee (CLIC)

Im Bereich der Digital Humanities (DH) gilt der offene Zugang zu Wissen und den Ergebnissen wissenschaftlicher Forschung als Selbstverständlichkeit und aufgrund der Vorgaben nationaler und europäischer Förderprogramme geradezu als Notwendigkeit. Andererseits sind Vertraulichkeit und Datenschutz ethische Grundanforderungen für die Verarbeitung personenbezogener (Forschungs-)Daten.

Der Consent Form Wizard wurde von der DARIAH-EU Arbeitsgruppe ELDAH in Kooperation von Jurist*innen, Entwickler*innen und Wissenschaftler*innen entwickelt.

Dieses frei online verfügbare Werkzeug generiert standardisierte und DS-GVO-konforme Einwilligungserklärungen für Studienteilnehmer*innen, Benutzer*innen, Veranstaltungs- oder Umfrageteilnehmer*innen etc. im Kontext wissenschaftlicher Datenerhebungen und -verarbeitungen.

Die zum gegenwärtigen Zeitpunkt umgesetzten Anwendungsszenarien des Consent Form Wizards reichen, basierend auf den Befragungen von TeilnehmerInnen mehrerer internationaler DH-Veranstaltungen und themenspezifischer Workshops, von Zustimmungserklärungen für die Datenverarbeitung bei der Veranstaltungsorganisation, über Ton- und Videoaufzeichnungen, Mailinglisten und Newsletter bis hin zur Verarbeitung personenbezogener Daten im Rahmen von Umfragen und Interviews in der Forschungspraxis.



Datenbiographik im Literaturarchiv. Konzept und Umsetzung digitaler Dienste am Theodor-Fontane-Archiv

Sabine Seifert, Anna Busch, Peer Trilcke, Kristina Genzel, Juliane Heilmann, Klaus-Peter Möller

Theodor-Fontane-Archiv, Universität Potsdam

Das Theodor-Fontane-Archiv hat umfassende bio- und bibliographische Datenbestände zu Fontane in Form offener Kulturdaten webbasiert und kostenfrei verfügbar gemacht. Die “Fontane Bibliographie online” enthält bibliographische Metadatensätze zu Primär- und Sekundärliteratur und die “Fontane Briefdatenbank” verzeichnet brieftypische Metadaten zu sämtlichen bekannten Briefen von Fontane. Ergänzt um die Daten der Biographischen Datenbank und angereichert mit Norm- und Registerdaten fließen die Einzeldatenbestände, für die individuelle Dienste mit eigenen Interfaces entwickelt wurden, in den übergreifenden Dienst “Fontane Chronik digital” ein. Dieser datenbiographische Meta-Dienst weist jeden Datensatz einem übergeordneten Tages-, Monats- oder Jahresdatensatz zu. Das chronikale Prinzip in Form einer Datenbiographik wird im Frontend mittels eines Kalender-Interfaces ausgegeben, das unterschiedliche Zugangsszenarien und Darstellungsformen berücksichtigt. Während die Qualitätssteigerung der Daten (Normdaten, LOD, Zugriff via APIs) im Vordergrund zukünftiger Entwicklungsarbeiten steht, bilden diese ebenfalls einen Beitrag zur Neujustierung des Verhältnisses von Archiv und Biographik im Zeichen der digitalen Transformation.



Repositorien als digitale Gedächtnisträger zwischen Evolution und Langzeitplanung

Elisabeth Steiner, Gunter Vasold, Martina Scholger

Karl-Franzens-Universität Graz, Austria

Seit beinahe 20 Jahren verwaltet und publiziert das Repositorium GAMS Forschungsdaten aus den Geisteswissenschaften und dem Kulturerbebereich. Derzeit enthält das Langzeitarchiv etwa 115.000 annotierte digitale Objekte aus mehr als 60 Projekten. Dies reicht von digitalen Editionen oder Textsammlungen (z.B. Briefe, mittelalterliche Rechnungsbücher) über Bildsammlungen (z.B. historische Fotografien und Postkarten) bis hin zu digitalisierten musealen Sammlungen (z.B. archäologische Artefakte oder andere Museumsobjekte) (GAMS 2021). Dabei liegt das Augenmerk sowohl auf der langfristigen Sicherung und Zugänglichmachung von Ressourcen wie auch auf dem nachhaltigen Umgang mit den bearbeiteten Forschungsdaten.

Domänenspezifische Repositorien müssen dabei einen Ausgleich zwischen langzeittauglicher und somit eher konservativer Entwicklung und dem Einsatz aktueller Technologien finden. Das Poster wird den konzeptionellen Rahmen dieser Forschungsdateninfrastruktur vorstellen und Lösungsansätze aus diesem Widerspruch diskutieren, die besonders auf die Migration der Kernkomponenten fokussieren.



Semantische Suche mit Word Embeddings für ein mehrsprachiges Wörterbuchportal

Ngoc Duyen Tanja Tu, Peter Meyer

Leibniz-Institut für Deutsche Sprache, Germany

Das Poster präsentiert eine semantische Suchfunktion, basierend auf Word Embeddings, für das Lehnwortportal Deutsch (LWPD), ein Online-Informationssystem zu lexikalischen Entlehnungen aus dem Deutschen in andere Sprachen.

Der onomasiologische Zugriff auf die lexikalischen Einheiten des Portals ermöglicht es Forschungsfragen, wie z.B. zur Wahrscheinlichkeit der Entlehnung von lexikalischen Einheiten mit einer bestimmten Bedeutung (Haspelmath/Tadmor, 2009; Zeller, 2015) zu beantworten.

Die Suchtechnologie basiert auf multilingualen vortrainierten Word Embeddings: Bedeutungen von Wörtern aus dem Portal werden Vektoren zugeordnet. Die Benutzer:innen können ein oder mehrere Suchbegriff(e) aus einer großen Anzahl wählen, die Datenbank liefert dann lexikalische Einheiten aus dem LWPD, deren Vektor ähnlich zu dem des Suchbegriffs bzw. der Suchbegriffe ist.

Wir zeigen die Vorteile dieses Ansatzes im Vergleich zu Suchfunktionen auf, die auf semantischen Feldern basieren. Außerdem geben wir eine vorläufige Evaluation der Qualität der Suchergebnisse.



Reflexive Passagen und ihre Attribution

Hanna Varachkina, Florian Barth, Luisa Gödeke, Anna Mareike Hofmann, Tillmann Dönicke

Georg-August-Universität Göttingen, Deutschland

Das Projekt MONA beschäftigt sich mit reflexiven Passagen und ihrer Attribution. Der Begriff reflexive Passagen ist ein Oberbegriff für drei Phänomene: Generalisierung, literarischer Kommentar und nicht-fiktionale Rede. Reflexive Passagen können dem/der AutorIn, einer Erzähinstanz und/oder einer Figur zugeschrieben werden. Wir annotieren die mit reflexiven Passagen assoziierten Phänomene in deutschsprachigen fiktionalen Erzähltexten von 1650–1950 und veröffentlichen sie im Korpus MONACO. Auf der Grundlage der entstehenden Daten werden regelbasierte, statistische und neuronale Modelle zur Erkennung und Klassifikation von Generalisierung, Kommentar, nicht-fiktionaler Rede und ihrer Attribution entwickelt. Sobald ausreichend annotierte Daten vorliegen, kann eine diachrone Analyse der reflexiven Passagen und ihrer Attribution über einen Zeitraum von 350 Jahren vorgenommen werden.



Prosopographische Interoperabilität (IPIF) - Stand der Entwicklungen

Georg Vogeler1, Richard Hadden2, Matthias Schlögl2, Gunter Vasold1

1Universität Graz, Austria; 2Österreichische Akademie der Wissenschaften, Österreich

Bericht über die Entwicklungen am International Prosopographical Interoperability Framework (IPIF)



Die Preußische Monarchie visualisieren - Ein Bericht aus dem Werkzeugkasten

Jan Wierzoch, Lou Klappenbach

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

Visualisierungen in ihren unterschiedlichen Formen stellen nicht nur eine Ergänzung zur klassischen Edition dar, sondern eröffnen durch Verknüpfungsmöglichkeiten und interaktive Elemente neue Perspektiven auf Forschungsdaten. Die Aufbereitung von Kulturdaten zur Visualisierung und ihre Online-Publikation kann Forscher:innen anregen, mit ihnen zu experimentieren. Visualisierungen bieten als Teil digitaler Editionen neue und teilweise interaktive Möglichkeiten der Vermittlung historischer Informationen. Sie können einen neuen Blick auf die Daten einer Edition eröffnen, ob in Karten, Diagrammen oder anderen Visualisierungsmodi, weiter explorierbar durch beispielsweise Filter, Suche, Zoom und Verlinkungen. Wie Visualisierungen eine Edition bereichern können, wird im Projekt “Die Sprache der Monarchie” sichtbar und soll auf der DHd2022-Konferenz in einem Posterbeitrag präsentiert werden.



Spotlights: Wie das OpenMethods-Metablog Digital Humanities-Methoden, -Tools und -Toolmaker ins Scheinwerferlicht rückt

Ulrike Wuttke1, Erzsébet Tóth-Czifra2, Marinella Testori3, Aliz Horvath4, Paul Spence5, Helen Katsiadakis6

1Fachhochschule Potsdam, Germany; 2DARIAH-EU, France; 3CIRCSE at the Catholic University in Milan, Italy; 4Eötvös Loránd University, Hungary; 5King’s College London, UK; 6Academy of Athens, Greece

Das OpenMethods-Metablog bringt Open-Access-Inhalte zu DH-Methoden und -Werkzeugen in verschiedenen Formaten und Sprachen zusammen. Ziel ist es, das Wissen um die selbigen zu verbreiten und ihre Anerkennung in der DH-Community und darüber hinaus zu erhöhen. Im Poster präsentieren wir mit dem Format ‘Spotlights’ die jüngste Weiterentwicklung der Plattform. Diese neue Serie von längeren Originalbeiträgen in Interviewform im Metablog zielt darauf ab, die Menschen hinter den DH-Werkzeugen und -Methoden besser sichtbar zu machen. In Zentrum unserer Posterpräsentation sollen neben der Vorstellung der neuen Spotlights-Serie (mittels einer interaktiven Demo) unter anderem die Diskussion der Herausforderungen des OpenMethods-Editorial Teams in Bezug auf die Nachhaltigkeit der Plattform stehen sowie gemeinsam mit der DHd-Community darüber nachgedacht werden, wie Beiträge, neueste Entwicklungen, Community-Praktiken etc. aus dem deutschsprachigen DH-Diskurs besser dargestellt werden können.