Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Nur Sitzungen am Veranstaltungsort 
 
 
Sitzungsübersicht
Datum: Montag, 07.03.2022
13:00 - 19:00Öffnungszeiten Digitales Konferenzbüro
Virtueller Veranstaltungsort: Konferenzbüro
Zoom-Kenncode: 25654227
14:00 - 18:00Workshop 1a: Ethisch - transparent - offen: Die CARE-Prinzipien und ihre Implikationen für geisteswissenschaftliche FDM-Services
Ort: DHd2022 Zoom Workshop 1
 

Ethisch - transparent - offen: Die CARE-Prinzipien und ihre Implikationen für geisteswissenschaftliche FDM-Services

Katrin Moeller1, Sibylle Söring2, Sabine Imeri3, Marina Lemaire4, Nils Reichert5

1Martin-Luther-Universität Halle-Wittenberg, Germany; 2Universitätsbibliothek der Freien Universität Berlin, Germany; 3Universitätsbibliothek und Fachinformationsdienst Sozial- und Kulturanthropologie an der Humboldt-Universität zu Berlin, Germany; 4Servicezentrum eSciences der Universität Trier; 5Hessisches Landesarchiv Marburg

Bei den Einreichenden handelt es sich um Vertreter:innen von Infrastruktureinrichtungen (AG Datenzentren), die Forschende bei der Entwicklung und Umsetzung des Forschungsdatenmanagements (FDM) unterstützen. Dabei fallen häufig Beratungs- und Kompetenzvermittlungsaufgaben an, die weit in rechtliche und ethische Thematiken ausgreifen, für die Mitarbeiter:innen von Datenzentren und Infrastruktureinrichtungen aber nicht geschult sind, und für die aus geisteswissenschaftlicher Perspektive auch kaum Handreichungen existieren.

Ergänzt wird diese Perspektive durch fachliche Beiträge zu Anwendungskontexten, zur Relevanz und disziplinären Ausweitung der CARE-Prinzipien durch die Ethnologin Sabine Imeri (FID Sozial- und Kulturanthropologie, HU Berlin/Universität Bremen) sowie Vertreter:innen weiterer Fachkontexte. Die einzelnen Themenblöcke werden Herausforderungen am Beispiel von Oral History (Verena Lucia Nägel, Universitätsbibliothek, FU Berlin), Afrikanistik/Linguistik (Henning Schreiber/Katrin Pfeiffer, Asien-Afrika-Institut, Universität Hamburg) sowie Archivrecht (Thomas Henne, Archivschule Marburg) in den Blick nehmen. Die Verschränkung von FDM-Expertise und Problemszenarien der Forschungspraxis soll beide Handlungsebenen besser miteinander in Bezug setzen und die gegenseitige Wahrnehmung von Bedarfen, Herausforderungen und Lösungskonzepten fördern.

 
14:00 - 18:00Workshop 2a: Manifest für digitale Editionen
Ort: DHd2022 Zoom Workshop 2
 

Manifest für digitale Editionen

Christiane Fritze

Wienbibliothek im Rathaus, Austria

Das Institut für Dokumentologie und Editorik sieht die Notwendigkeit, auf ungünstige Faktoren bei der Erstellung und Erhaltung von digitalen Editionen aufmerksam zu machen, um die Situation in Zukunft besser gestalten zu können. Im Workshop soll gemeinsam mit den Teilnehmer*innen ein Manifest für Digitale Editionen erarbeitet werden.

 
14:00 - 18:00Workshop 3a: Parser bauen für domänenspezifische Notationen
Ort: DHd2022 Zoom Workshop 3
 

Parser bauen für domänenspezifische Notationen

Eckhart Arnold

Bayerische Akademie der Wissenschaftten, Germany

Domänenspezifische Notationen (DSL) werden in vielen Bereichen der Digital Humanities als Ergänzung oder Alternative zu XML zur Dateneingabe und -codierung eingesetzt. (Beispiele: ATF für Keilschriften: https://t1p.de/uryr, Die DSL des patristischen Textarchivs: https://t1p.de/r8yv, Die Notation des Mittellateinischen Wörterbuchs: https://t1p.de/44x9) Die Entwicklung solcher domänenspezifischen Notationen und der Bau von "Parsern" zum Einlesen der darin codierten Daten ist dabei keineswegs immer trivial. Rechen für einfache Anwendungsfälle noch handgeschriebene Parser mit regulären Ausdrücken, so empfiehlt sich für komplexere DSLs die formale Spezifikation der DSL-Grammatik in der Erweiterten Backus-Naur-Form (EBNF) und der Einsatz von Parser-Generatoren.

In diesem praxisnahen Kurs wird vermittelt:

1. Die Spezifikation von formalen Grammtiken für DSLs in EBNF.

2. Die Programmierung von Parsern für DSLs mit dieser Grammatik

3. Die Gewinnung der Nutzdaten aus den vom Parser gelieferten Syntaxbäumen.

Voraussetzung: Python-Programmierung und Grundkenntnisse regulärer Ausdrücke

 
14:00 - 18:00Workshop 4a: Introduction to Docker
Ort: DHd2022 Zoom Workshop 4
 

Introduction to Docker

Marcus Lampert

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

Docker is piece of software that has the potential to alleviate some of the pain of maintaining legacy systems and ensuring the longue durée of Digital Humanities projects. In this workshop, we offer participants a practical introduction to Docker and show by example how it can be integrated into existing and new Digital Humanities projects. Participants will follow along with the presenter, deploying example applications on their own laptops using Docker. The workshop is based on a workshop developed internally at the Berlin-Brandenburg Academy of Sciences and Humanities. It is designed to be practical and accessible to a broad audience. It covers basic concepts and commands that arise in one’s regular work with Docker.

 
14:00 - 18:00Workshop 5a: HISB vorgestellt: Eine virtuelle Arbeitsumgebung für die akademische Forschung wie auch die Digitalisierung von strukturierten Informationen aus Archivalien.
Ort: DHd2022 Zoom Workshop 5
 

HISB vorgestellt: Eine virtuelle Arbeitsumgebung für die akademische Forschung wie auch die Digitalisierung von strukturierten Informationen aus Archivalien.

David Knecht1, Francesco Beretta2, Gerhard Hotz3

1KleioLab GmbH, Schweiz; 2LARHRA–CNRS/Université de Lyon/ENS, Frankreich; 3Integrative Prähistorische und Naturwissenschaftliche Archäologie (IPNA), Universität Basel

Die Digitalisierung von Archivgütern erlaubt einen neuartigen Zugang zum kulturellen und gesellschaftlichen Gedächtnis. Dabei ist es besonders herausfordernd, Arbeitsumgebungen zu schaffen, die es erlauben digitalisierte Archivalien im Sinne von primären Forschungsdaten zu verbinden mit den sekundären Forschungsdaten, welche im Rahmen der Bearbeitung eines Forschungsgegenstandes zusätzlich erfasst werden. Erst recht, wenn das digitalisierte Archivgut in einem ersten Schritt prozessiert werden muss, damit es den zur Forschung nötigen Grad an Granularität der strukturierten Informationen aufweist. Dieser Aufgabe hat sich das Projekt HISB (Historisch-genealogisches Informationssystem Basel) angenommen, welches sich auf die Bevölkerung der Stadt Basel im 19. Jahrhundert konzentriert und Informationen aus Quellen des Staatsarchivs aufbereitet für die Forschung, wie auch für die Nutzung durch die interessierte Öffentlichkeit – mit integrierten Analyse- & Visualisierungsmöglichkeiten.

Der Workshop soll den Teilnehmenden hands-on einen Einblick geben in ein ambitioniertes Digitalisierungsprojekt, dessen Herausforderungen wie auch Potential. Der Anlass richtet sich an Forschende wie auch Mitarbeitende in Digitalisierungsprojekten.

 
14:00 - 18:00Workshop 6a: Wahrnehmungsstrukturen und User Experience des digitalen Kulturerbes - ein Blick auf museale Online Sammlungen
Ort: DHd2022 Zoom Workshop 6
 

Wahrnehmungsstrukturen und User Experience des digitalen Kulturerbes - ein Blick auf museale Online Sammlungen

Janna Kienbaum1, Frank Heidmann2

1Universität Potsdam, Germany; 2Fachhochschule Potsdam, Germany

Der Workshop hinterfragt partizipativ die Visualisierungskultur und Wahrnehmungs- bzw. Nutzungspraktiken digitaler Kulturerbe-Daten am Beispiel musealer Sammlungen im Web. Im Zentrum steht dabei der Einsatz von Eyetracking-Verfahren sowie Methoden der heuristischen Usability-Evaluation. Ausgehend von den Webseiten “explorativ” gestalteter Online Sammlungen werden die graphischen Benutzeroberflächen als visuelle Schnittstelle zwischen interner Objektdatenbank und Rezipientenschaft kritisch beleuchtet. In engem Austausch mit den Teilnehmer*innen sollen die User Experience praktisch erforscht werden. Dazu gehören einerseits Fragen nach den Wahrnehmungsstrukturen und der intuitiven Nutzung der Seiten, ihrer Zeichen und Navigation. Andererseits wird explizit ein Augenmerk auf die angebotene Auswahl der Informationen von v.a. Einzelobjektseiten und das Vernetzungspotential verlinkter Daten als Möglichkeit der Kunstvermittlung gelegt.

 
14:00 - 18:00Workshop 7a: Barcamp: "Headlines & Highlights" der AG Zeitungen & Zeitschriften
Ort: DHd2022 Zoom Workshop 7
 

Barcamp: "Headlines & Highlights" der AG Zeitungen & Zeitschriften

Nanette Rißler-Pipka1, Torsten Roeder2

1Niedersächsische Staats- und Universitätsbibliothek Göttingen, Germany; 2Bergische Universität Wuppertal, Germany

In einem halbtägigen Preconference-Barcamp (4 Stunden mit einer Pause) zu (aktuell) bis zu neun Themen rund um die Arbeit der AG zu digitalen historischen Periodika wollen wir gemeinsam mit den Teilnehmer*innen aus und außerhalb der AG weitere Handlungsfelder erschließen und begonnene Aktivitäten voran bringen. Es handelt sich um ein offenes Angebot, das sich an alle richtet, die an dem Thema "Historische Zeitungen und Zeitschriften" interessiert sind und dazu ein Thema in der Kleingruppe vertiefen möchten. Die AG Zeitungen & Zeitschriften stellt dafür einen thematischen Rahmen. Zusammenhänge mit den AG-Aktivitäten sind natürlich willkommen, aber nicht notwendig.

 
14:00 - 18:00Workshop 8a: Peer-to-Peer-Workshop zum Projekt Management in den Digital Humanities
Ort: DHd2022 Zoom Workshop 8
 

Peer-to-Peer-Workshop zum Projekt Management in den Digital Humanities

Fabian Cremer3, Swantje Dogunke1, Anna Neubert2, Thorsten Wübbena3

1Thüringer Universitäts- und Landesbibliothek, Germany; 2Universität Bielefeld; 3Leibniz-Institut für Europäische Geschichte

Welche Fähigkeiten und Kompetenzen sind für das Projektmanagement in den DH entscheidend und wie werden diese erlernt oder erfahren? Welche Rollen und welches Rollenverständnis bilden Grundlage für die Zusammenarbeit? Wie lässt im Wissenschaftssystem aus Aufgaben im Projektmanagement Anerkennung und Reputation gewinnen? In unserem Peer-to-Peer-Workshop wollen wir im Rahmen eines World Cafés diesen und anderen Fragen nachgehen und mit allen interessierten Forscher*innen und Projektmanager*innen diskutieren und dabei einen Raum schaffen, sich über methodische Fragen und persönliche Erfahrungen mit Projektplanung, Projektmanagements und Koordinierungsaufgaben in der digitalen interdisziplinären Wissensproduktion auszutauschen

 
14:00 - 18:00Workshop 9a: Optimiertes Peer Reviewing in den Digital Humanities
Ort: DHd2022 Zoom Workshop 9
 

Optimiertes Peer Reviewing in den Digital Humanities

Svenja Guhr1, Timo Steyer2, Walter Scholger3, Manuel Burghardt4, Lisa Dieckmann5, Nils Reiter5, Ulrike Wuttke6

1Technische Universität Darmstadt, Deutschland; 2Universitätsbibliothek Braunschweig, Deutschland; 3Zentrum für Informationsmodellierung - Austrian Centre for Digital Humanities, Universität Graz, Österreich; 4Universität Leipzig, Deutschland; 5Universität zu Köln, Deutschland; 6FH Potsdam, Deutschland

Peer reviewing gilt auch in den Digital Humanities als die wissenschaftliche Qualitätssicherungsmaßnahme für Publikations- und Veranstaltungsformate.

In Absprache mit dem DHd-Vorstand sowie dem aktuellen Programmkomitee entwickelte die Task Force eine Handreichung für das peer reviewing der DHd 2022 mit weiterführenden Erklärungen der Kriterien und Empfehlungen zur Begutachtung in der DHd-Community, die bereits für den Reviewprozess der DHd-Jahrestagung 2022 an die Reviewer:innen verteilt wird. Ein globales Ziel der Handreichung ist es, eine größere Einheitlichkeit in der Anwendung der Begutachtungskriterien für Beiträge in der Jahrestagung DHd- Community zu schaffen.

Diese neuen Entwicklungen und die damit verbundenen Diskussionen und Beschlüsse sind nicht immer leicht nachzuvollziehen, daher soll der Workshop ein Format anbieten, um sich über die Begutachtungspraxis der DHd und über weitere Begutachtungsformate zu informieren, einen Ort für Austausch zwischen mehr und weniger erfahrenen Reviewer:innen zu schaffen, aber auch konkret das Schreiben von Gutachten zu erproben.

 
14:00 - 18:00Workshop 19a: Die Sprache der Erinnerung – analysieren und verstehen. Korpuslinguistische Zugänge zu Oral-History-Daten
Ort: DHd2022 Zoom Workshop 19
 

Die Sprache der Erinnerung – analysieren und verstehen. Korpuslinguistische Zugänge zu Oral-History-Daten

Annette Gerstenberg1, Almut Leh2, Dennis Möbus2, Cord Pagenstecher3

1Universität Potsdam, Germany; 2Fernuniversität Hagen, Germany; 3Freie Universität Berlin, Germany

Oral-History-Interviews sind narrative Erinnerungsinterviews, die als Quellen bzw. Datengrundlage in unterschiedlichen Disziplinen genutzt werden. Interview-Archive sind Gedächtnisinstitution in der Bewahrung und Vermittlung von Wissensbeständen. Außerdem sind die archivierten Wissensbestände selbst Erinnerungen, also Gedächtnisinhalte. Als maschinenlesbare Daten sind Oral-History-Interviews nicht nur für die Humanities, sondern auch für Linguistik und Informatik interessante multimodale Daten.

In den historischen Wissenschaften werden Oral-History-Interviews in intensiver hermeneutischer Arbeit analysiert und interpretiert, im Spannungsfeld persönlicher und kollektiver Relevanz. Die digitale Erschließung eröffnet die Möglichkeit, überindividuelle Muster der Erinnerung und ihrer sprachlichen Verfasstheit mit Hilfe korpuslinguistischer Tools zu erschließen.

Auf Basis von Praxisbeispielen wird im Workshop die Frage nach dem Mehrwert technikgetriebener Analysen diskutiert. Können Tools das hermeneutische Verstehen unterstützen oder gar bereichern, oder besteht die Gefahr, die Subjektivität der Erzählung und die individuelle Entstehungssituation der Quellen aus dem Blick zu verlieren? Sind die digital erkannten Muster am Ende Artefakte oder können sie Schlüssel zum tieferen Verstehen sein?

 
14:00 - 18:00DHd-Vorstandssitzung
Ort: DHd-Verband Zoom Vorstand
15:30 - 16:00Kaffeepause
18:30 - 22:00Casino Royale
Virtueller Veranstaltungsort: DHd2022 Gathertown
Passwort: dhd2022
Datum: Dienstag, 08.03.2022
8:30 - 17:30Öffnungszeiten Digitales Konferenzbüro
Virtueller Veranstaltungsort: Konferenzbüro
Zoom-Kenncode: 25654227
9:00 - 13:00Workshop 11a: Annotorious - eine JavaScript-Bibliothek für die Entwicklung maßgeschneiderter Bildannotationstools
Ort: DHd2022 Zoom Workshop 11
 

Annotorious - eine JavaScript-Bibliothek für die Entwicklung maßgeschneiderter Bildannotationstools

Rainer Simon2, Erik Radisch1

1Sächsische Akademie der Wissenschaften zu Leipzig, Deutschland; 2Austrian Institute of Technology in Wien, Österreich

Annotorious ist eine JavaScript-Bibliothek, mit deren Hilfe es möglich ist, mit wenig Aufwand eine Bildannotationsumgebung zu programmieren. Trotz seiner Einfachheit ist sehr flexibel und bietet viele Möglichkeiten zur Anpassung und Erweiterung, wodurch es gerade für geisteswissenschaftliche Forschungsprojekte interessant ist, wo die Anforderungen an Annotationswerkzeuge stark variieren.

Ziel des Workshops ist es, den Teilnehmern umfassenden Einblick in den Funktionsumfang und in die Einsatzmöglichkeiten von Annotorious zu geben, und sie in die Lage zu versetzen, selbstständig Annotationsumgebungen zu erstellen, sie gemäß den eigenen Forschungsbedürfnissen individuell anzupassen, und über Plugins zu erweitern. Im Rahmen von praktischen Übungen werden die Teilnehmer dazu Basisszenarios auf dem eigenen Notebook entwickeln und Grundkomponenten (visuelles Erscheinungsbild, Annotations-Editor) anpassen.

 
9:00 - 13:00Workshop 10a: Vom Begriff über das Phänomen zur Analyse – ein CRETA-Workshop zur Operationalisierung in den DH
Ort: DHd2022 Zoom Workshop 10
 

Vom Begriff über das Phänomen zur Analyse – ein CRETA-Workshop zur Operationalisierung in den DH

Melanie Andresen2, Benjamin Krautter3, Janis Pagel2, Axel Pichler1

1FU Berlin, Germany; 2University of Stuttgart, Germany; 3Heidelberg University, Germany

Der Workshop stellt eine weiterentwickelte und personell anders besetzte Version eines auf der DHd 2020 abgehaltenen Workshops dar. Er adressiert mit dem Konzept und der Praxis der Operationalisierung eine der zentralen Herausforderungen für Arbeiten in den DH. Während Geisteswissenschaftler*innen vor allem mit komplexen, häufig mehrere Textphänomene umfassenden Konzepten arbeiten, ist die computergestützte Arbeit an identifizierbare Phänomene auf der Textoberfläche gebunden. Die hieraus erwachsende Diskrepanz zwischen theoretischen Erwartungen und konkreten Ergebnissen gilt es über eine adäquate Operationalisierung, also die Erkennung und Messbarmachung theoretischer Konzepte, zu überbrücken. Der Workshop will diese Schnittstelle in den Fokus rücken. Anhand ausgewählter Anwendungsfälle soll gezeigt werden, welche Herausforderungen sich aus dem Einsatz computergestützter Methoden für geisteswissenschaftliche Fragestellungen ergeben und wie mit ihnen umgegangen werden kann. In einem praktischen Teil haben die Teilnehmenden die Möglichkeit, an der Operationalisierung vorgegebener exemplarischer Fragestellungen der Textanalyse und der für sie relevanten Konzepte zu arbeiten.

 
9:00 - 13:00Workshop 16a: FAIRes Datenmanagement mit dem DARIAH-DE Repository
Ort: DHd2022 Zoom Workshop 16
 

FAIRes Datenmanagement mit dem DARIAH-DE Repository

Melina Jander, Lukas Weimer

SUB Göttingen, Germany

Mit dem DARIAH-DE Repository können sowohl Individualforschende als auch Forschungsinstitutionen und weitere Datengeber unter Berücksichtigung der FAIR-Prinzipien ihre Daten dauerhaft und referenzierbar publizieren und speichern. Eingebettet in die Infrastruktur von DARIAH- und CLARIAH-DE garantiert das Repository Nachhaltigkeit und Support – und somit ein hohes Maß an Nutzendenfreundlichkeit. Für die Verwendung ist lediglich ein DARIAH- oder Föderationsaccount nötig und es entstehen keine Kosten auf Seiten der Nutzenden. In dem halbtägigen Workshop wird das Dateneingabewerkzeug des DARIAH-DE Repositorys, der Publikator, vorgestellt und gemeinsam mit den Teilnehmenden ausprobiert. Der Hands-On-Charakter des Workshops wird in Form von Impulsvorträgen über FAIRes Datenmanagement und die technische Einbettung des Repositorys in seine Umgebung, die DARIAH-DE Datenföderationsrachitektur, angereichert.

 
9:00 - 17:00Workshop 15a: Projektmanagement für die Digital Humanities
Ort: DHd2022 Zoom Workshop 15
 

Projektmanagement für die Digital Humanities

Markus Frank

Ludwig-Maximilians-Universität München, Germany

Je umfangreicher Projekte in den Digital Humanities werden, je komplexer und interdisziplinärer, umso größer wird die Gefahr einer defizitären Umsetzung und umso wichtiger werden die Anforderungen an die Planung und Organisation der Projektbestandteile. Professionelles Projektmanagement spielt jedoch zum aktuellen Zeitpunkt eine allenfalls untergeordnete Rolle, sowohl in DH-Projekten als auch in der Ausbildung, obwohl der wachsende Bedarf durchaus bekannt ist. Ziel des Workshops ist es, den Teilnehmenden Einblicke in die Bereiche Projektplanung, klassisches Projektmanagement, agiles Projektmanagement und zentrale Problemfelder in DH-Projekten zu geben. Ergänzend sollen die Teilnehmenden ihre eigenen Erfahrungen in DH-Forschungsprojekten reflektieren und handlungspraktisches Wissen für das Management von interdisziplinären Projekten erwerben: Wie plant man komplexe Projekte, die darin enthaltenen Arbeitspakete und optimiert deren Durchlauf? Welche Vorgehensmodelle aus dem IT-Projektmanagement sind für DH-Projekte sinnvoll? Können agile Methoden zielführend in Projekte integriert werden? Letztendlich: Wie kann die Wahrscheinlichkeit auf erfolgreichen Projektabschluss verbessert werden, trotz wachsender Komplexität sowie interdisziplinärem Abstimmungsbedarf in DH-Projekten?

 
9:00 - 17:00Workshop 12a: Workshop: Repräsentativität in digitalen Archiven
Ort: DHd2022 Zoom Workshop 12
 

Workshop: Repräsentativität in digitalen Archiven

Corinna Dziudzia1, Mark Hall2

1Forschungszentrum Gotha der Universität Erfurt; 2The Open University, United Kingdom

Die „Kulturen des digitalen Gedächtnisses“ operieren vor dem Hintergrund eines Spannungsfelds, das man auf eine Dichotomie von Kanon und Archiv zuspitzen kann. Die Komplexität in dieser Frage ergibt sich nicht zuletzt daraus, dass die Interessen und Anforderungen einer Reihe von Akteuren zusammentreffen: Geisteswissenschaftler_innen, Archivar_innen, Geldgeber_innnen und Informatiker_innen. Jede dieser Gruppen hat unterschiedliche Sichtweisen darauf, was Repräsentativität für sie bedeutet, aber was fehlt, ist ein Forum, in dem ein kontinuierlicher Austausch über diese Fragen über die Gruppengrenzen hinweg möglich ist. Der hier vorgeschlagene ganztägige Workshop für die DHd 2022 stellt einen ersten Schritt in diese Richtung dar, mit zwei geplanten Outputs: einem Positionspapier und der Gründung einer DHd-Arbeitsgruppe “Repräsentativität”. Es bestehen zwar schon akteursspezifische AGs (Datenzentren, DH Theory, OCR), die AG “Repräsentativität” wird aber Akteur_innen über Gruppengrenzen hinweg zusammenbringen, was unsere Vorarbeit als notwendig identifiziert hat.

 
9:00 - 17:00Workshop 13a: GitMA oder CATMA für Fortgeschrittene – Projektdaten via Git abrufen und mittels Python-Bibliothek weiterverarbeiten
Ort: DHd2022 Zoom Workshop 13
 

GitMA oder CATMA für Fortgeschrittene – Projektdaten via Git abrufen und mittels Python-Bibliothek weiterverarbeiten

Mareike Schumacher1, Michael Vauth2, Dominik Gerstorfer3, Malte Meister4

1Technische Universität Darmstadt, Germany; 2Technische Universität Darmstadt, Germany; 3Technische Universität Darmstadt, Germany; 4Technische Universität Darmstadt, Germany

Dieser CATMA-6-Workshop richtet sich an fortgeschrittene CATMA User*innen mit Vorkenntnissen in digitaler Annotation, die im Rahmen der eigenen Arbeit oder von Forschungsprojekten mit größeren Mengen von Annotationsdaten operieren (wollen). Im Zentrum steht die Weiterverarbeitung und Analyse von Annotationsdaten. Wie greife ich über Git auf meine CATMA-Annotationsdaten zu? Wie erstelle ich individuelle, interaktive Visualisierungen meiner Annotationsdaten? Wie berechne ich die Übereinstimmung zwischen mehreren Annotator*innen? Diese und ähnliche Fragen werden während des Workshops beantwortet.

 
9:00 - 17:00Workshop 14a: Textexplorationen in der digitalen Literaturwissenschaft: eine kritische und angewandte Auseinandersetzung mit Repräsentations- und Interpretationsansätzen von Text
Ort: DHd2022 Zoom Workshop 14
 

Textexplorationen in der digitalen Literaturwissenschaft: eine kritische und angewandte Auseinandersetzung mit Repräsentations- und Interpretationsansätzen von Text

Stephanie Brandl1,2, David Lassner2, Cora Krömer3, Anne Baillot4

1Københavns Universitet; 2Technische Universität Berlin; 3Universitätsbibliothek Erlangen-Nürnberg; 4Le Mans Université

In dem Workshop möchten wir uns der Thematik des Lesens und der vektoriellen Textrepräsentation von zwei Seiten nähern, wir geben (1) einen Überblick über die traditionellen Theorien des Lesens und kontextualisieren sie mit Erkenntnissen aus neurowissenschaftlichen Laborstudien. Wir geben (2) eine Zusammenfassung der aktuellen Methoden zu Textrepräsentation [z.B. Glove, Bert] und Beispiele für DH-Projekte, in denen diese bereits verwendet werden, insbesondere fokussieren wir uns hier auch auf gängige Visualisierungsmethoden und die damit zusammenhängenden Limitationen. Beides wollen wir durch praktische Übungen an eigenen oder bereitgestellten Datensätzen näherbringen.

Zum Abschluss bieten wir konkrete Möglichkeiten an, welche Visualisierungen auf welche Weise ihren Platz als literaturwissenschaftliche Methode finden können.

 
9:00 - 17:00Workshop 17a: Einführung in DraCor – Programmable Corpora für die digitale Dramenanalyse
Ort: DHd2022 Zoom Workshop 17
 

Einführung in DraCor – Programmable Corpora für die digitale Dramenanalyse

Ingo Börner1, Frank Fischer2,3, Carsten Milling1, Henny Sluyter-Gäthje1

1Universität Potsdam; 2National Research University Higher School of Economics Moscow; 3DARIAH-EU

Der ganztägige Workshop führt in DraCor (https://dracor.org) ein. Hierbei handelt es sich um eine offene Plattform zur Erforschung von Dramen in verschiedenen Sprachen. Anhand von praktischen Beispielen erlernen die Teilnehmer*innen Methoden der digitalen Dramenanalyse. Zunächst erfolgt eine Vorstellung des Konzepts der “Programmable Corpora” – infrastrukturell-forschungsorientierte, offene, erweiterbare, LOD-freundliche Volltextkorpora, die es ermöglichen sollen, auf niederschwellige Weise diverse Forschungsfragen aus dem Bereich der digitalen Literaturwissenschaft datenbasiert, nachvollziehbar und reproduzierbar zu bearbeiten. Danach wird in Hands-on-Tutorials in Kleingruppen eine praktische Einführung in das Erstellen von TEI-Dramenkorpora zur Analyse mit DraCor gegeben. Praktische Beispiele zu stilometrischen und netzwerkanalytischen Untersuchungen von Dramen führen in die Verwendung der DraCor-API ein. Ebenso werden Möglichkeiten zu korpusübergreifenden Abfragen und Einbeziehung von Informationen aus der Linked-Open-Data-Cloud mit SPARQL erprobt.

 
9:00 - 17:00Workshop 18a: Flexibles Arbeiten mit OCR4all – Massenvolltextdigitalisierung von Drucken mithilfe von OCR-D und hochqualitative Transkription von Handschriften
Ort: DHd2022 Zoom Workshop 18
 

Flexibles Arbeiten mit OCR4all – Massenvolltextdigitalisierung von Drucken mithilfe von OCR-D und hochqualitative Transkription von Handschriften

Florian Langhanki1, Maximilian Wehner1, Konstantin Baierer2, Lena Hinrichsen3, Christian Reul1

1Julius-Maximilians-Universität Würzburg, Germany; 2Staatsbibliothek zu Berlin – Preußischer Kulturbesitz; 3Herzog August Bibliothek Wolfenbüttel

Die automatisierte Texterkennung von historischen Drucken und Handschriften stellt eine anspruchsvolle Aufgabe bei der Entwicklung modularer wie flexibler OCR-/HTR-Workflows dar. Besonders Forschungsfelder wie Text Mining oder Sentiment Analysis haben die Schwierigkeiten einer Textdigitalisierung entsprechender Materialien bei gleichzeitigem Bedarf großer Textmengen zur Anwendung quantitativer Analyseverfahren erkannt. Auch im Kontext hochqualitativer Volltexterfassungen digitaler Editionen besteht großer Bedarf an intuitiv und komfortabel zu bedienender Software.

Die an der Universität Würzburg entwickelte Software OCR4all nimmt neben den formulierten Anforderungen entsprechender Workflowsysteme die Ausrichtung auf einen geisteswissenschaftlichen Nutzer:innenkreis für sich in Anspruch. Durch die baldige Unterstützung der im Rahmen von OCR-D entwickelten Lösungen wird nun die Anwendung im Spannungsfeld einer Massenvolltextdigitalisierung und einer hochqualitativen Erfassung historischer Texte möglich.

Der Workshop bietet einen umfassenden Einstieg ins Thema der OCR und HTR historischer Materialien. Teilnehmende werden in die Nutzung von OCR4all eingeführt und dazu befähigt, auf Grundlage anspruchsvoller Ausgangsmaterialien hochqualitative Textdaten zu generieren.

 
10:45 - 11:15Kaffeepause
13:00 - 14:00Mittagspause
14:00 - 15:00K1_1: Stadtspaziergang durch Potsdam
Ort: DHd2022 Zoom Führungen
Dein Potsdam in 360 Grad – Der digitale Stadtspaziergang
Beschreibung: Der Spaziergang beleuchtet die Stadtgeschichte – vom Museum Barberini über den Alten Markt durch die Innenstadt bis zum Holländischen Viertel.
14:00 - 15:00K1_2: Führung durchs DIGAREC
Ort: DHd2022 Zoom Führungen
Virtuelle Ausstellung im DIGAREC - Zentrum für Computerspielforschung.
Weitere Informationen zur Führung.
15:30 - 16:00Kaffeepause
18:30 - 21:00Eröffnungskeynote
Virtueller Veranstaltungsort: DHd2022 Zoom Opening
Zoom-Kenncode: 20903401
Datum: Mittwoch, 09.03.2022
8:30 - 19:00Öffnungszeiten Digitales Konferenzbüro
Virtueller Veranstaltungsort: Konferenzbüro
Zoom-Kenncode: 25654227
9:15 - 10:45V1_1: Digitale Literaturgeschichtsschreibung
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 1
Chair der Sitzung: Anne Baillot, Ecole Normale Supérieure de Lyon
Zoom-Kenncode: 23486091
 

Digital Environmental Humanities – Zum Potential von „Computational and Literary Biodiversity Studies“ (CoLiBiS)

Lars Langer1, Manuel Burghardt2, Roland Borgards3, Esther Köhring3, Christian Wirth1,4,5

1Spezielle Botanik und Funktionelle Biodiversität, Universität Leipzig; 2Computational Humanities Group, Universität Leipzig; 3Institut für Deutsche Literatur und ihre Didaktik, Universität Frankfurt; 4Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv), Halle-Jena-Leipzig; 5Max-Planck-Institut für Biogeochemie, Jena

Spätestens seit dem Einsetzen der Industrialisierung erfährt unser Planet einen überdurchschnittlichen Rückgang der Biodiversität. Der Schutz der Biodiversität ist daher ein drängendes Zukunftsthema, nicht nur in den Naturwissenschaften, sondern auch in den kulturwissenschaftlichen Umweltstudien, den sogenannten Environmental Humanities. Eine Zusammenarbeit dieser beiden Forschungszugänge wird von beiden Seiten explizit gefordert, konnte aber mangels operationalisierbarer Methoden bisher kaum realisiert werden. In diesem Beitrag schlagen wir mit den „Computational and Literary Biodiversity Studies“ (CoLiBiS) einen durch die Digital Humanities vermittelten, interdisziplinären Ansatz zur Untersuchung von Biodiversität in der Literatur vor. Zur konkreten Umsetzung von CoLiBiS stellen wir einen Methodenmix aus ökologischen Maßzahlen und textanalytischen Verfahren der DH vor und illustrieren deren Potenzial anhand zweier Fallstudien.



Literaturgeschichtsschreibung datenbasiert und wikifiziert?

Julia Röttgermann, Anne Klee, Maria Hinzmann, Christof Schöch

Universität Trier, Germany

Lässt sich Literaturgeschichtsschreibung in Form von Daten-Tripeln formalisieren? Das Projekt MiMoText erstellt einen Knowledge Graphen, der sich aus verschiedenen Textsorten speist. Im Rahmen eines Pilotprojekts wurden aus 92 französischen Primärtexten 1750-1800 mithilfe von Topic Modeling 30 Topics extrahiert und auf multilinguale, thematische Konzepte eines kontrollierten Vokabulars gemappt. Gleichzeitig wurden aus ca. 2700 bibliographischen Einträgen thematische Schlagworte extrahiert und diesem kontrollierten Vokabular an Themen der französischen Literatur des 18. Jahrhunderts zugeordnet. Welche Themen-Cluster des französischen Romans der Aufklärung hat der Algorithmus im Gegensatz zur menschlichen Lektüre identifiziert? Der vorgestellte Workflow beschreibt die Informationsextraktion, die Modellierung in RDF und das Endergebnis mit beispielhaften SPARQL-Abfragen.



Lesen, was wirklich wichtig ist: Die Identifikation von Schlüsselstellen durch ein neues Instrument zur Zitatanalyse

Frederik Arnold, Benjamin Fiechter

Humboldt-Universität zu Berlin, Germany

Wir präsentieren ein neues Instrument zur Identifikation von Schlüsselstellen, das auf der Basis der Zitatanalyse arbeitet. Lotte, ein Algorithmus zur Erkennung von Zitaten, und Annette, eine Webseite zur Visualisierung und Exploration von Schlüsselstellen, ermöglichen die Erkundung literarischer Texte und machen es uns möglich nachzuvollziehen, welche Stellen über den individuellen Interpretationsansatz hinaus von Bedeutung sind.

Hierbei ermöglicht unser Ansatz den nahtlosen Wechsel zwischen close und distant reading sowie eine sowohl auf den Primärtext als solchen als auch auf einzelne Sekundärtexte bezogene Perspektive.

 
9:15 - 10:45P1: Panel 1: Erinnern durch Vernetzen: Digitale Sammlungsforschung
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch Panels
Zoom-Kenncode: 50773448
 

Erinnern durch Vernetzen: Digitale Sammlungsforschung

Chair(s): Stefan Alschner (Klassik Stiftung Weimar, Forschungsverbund MWW), Marcus Baumgarten (Herzog August Bibliothek Wolfenbüttel, Forschungsverbund MWW), Jan Horstmann (Universität Münster, Universitäts- und Landesbibliothek), Christiane Müller (Klassik Stiftung Weimar, Forschungsverbund MWW), Julia Nantke (Universität Hamburg, Institut für Germanistik), Joëlle Weis (Trier Center for Digital Humanities (TCDH))

Vortragende: Stefan Alschner (Klassik Stiftung Weimar, Forschungsverbund MWW), Marcus Baumgarten (Herzog August Bibliothek Wolfenbüttel, Forschungsverbund MWW), Jan Horstmann (Universität Münster, Universitäts- und Landesbibliothek), Christiane Müller (Klassik Stiftung Weimar, Forschungsverbund MWW), Julia Nantke (Universität Hamburg, Institut für Germanistik), Joëlle Weis (Trier Center for Digital Humanities (TCDH)), Thorsten Wübbena (Leibniz-Institut für Europäische Geschichte (IEG))

Die Vernetzung von Daten ist immer auch eine Vernetzung von Wissensbeständen. In der digitalen Sammlungsforschung eröffnen sich mit verschiedenen Technologien der Referenzierung und Relationierung Möglichkeiten, ein Wissensnetzwerk aufzubauen, das je nach Bedarf durchsuchbar, in seiner Gesamtheit erschließbar und so offen gestaltet ist, dass es in ein globales Netz des Wissens integriert werden kann. Kulturelles Erbe und damit Erinnerungskultur können somit – zumindest in quantitativer Hinsicht – auf ein bislang ungesehenes Niveau gehoben werden. Dass mit der großen Menge an Erinnerungsdaten auch eine verlässliche und einheitliche hohe Qualität einhergeht, bleibt Herausforderung.

Die Relationierung von Sammlungsdaten ist häufig auch die Vernetzung unterschiedlicher Personen, die an diesen Datenbeständen arbeiten. Ein Netzwerk von Sammlungsdaten ist damit immer auch eine Infrastrukturaufgabe. Im Panel treten diverse Perspektiven auf Vernetzung mit verschiedenen Projekt- und Methodenhintergründen in einen Dialog.

 
9:15 - 10:45V1_2: Multimediale Digital Humanities
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 2
Chair der Sitzung: Birgit Schneider, Universität Potsdam
Zoom-Kenncode: 57941145
 

Back 'em up – Computerspiele als Objekte kulturellen Erbes

Sophie Schneider

HU Berlin, Germany

Der vorliegende Beitrag hinterfragt die Rolle, die Computerspiele aktuell in den digitalen Geisteswissenschaften einnehmen - nicht als Ergebnis oder Methode (z.B. Gamification), sondern als Gegenstand von Forschungen. Digitale Spiele (auch: Computer- oder Videospiele) sind interaktive, multimediale und -dimensionale Objekte kulturellen Erbes, welche die Gedächtnisinstitutionen vor neuartige Herausforderungen in den Bereichen Standardisierung von und Vernetzung mit Metadaten, Erschließung, Präsentation sowie Erhalt und Nachnutzung stellen. Es werden Ausgangspunkte aufgezeigt, deren Ausdifferenzierung einen ausführlicheren (geistes-)wissenschaftlichen Diskurs zum digitalen Spiel unterstützen würde. Die Digital Humanities sowie einzelne Gedächtnisinstitutionen sollen dazu angehalten werden, sich der Entwicklung entsprechender Infrastrukturen, Tools sowie Ressourcen- und Informationsangebote anzunehmen und den Austausch in diese Richtung weiter anzustoßen.



Japanese Visual Media Graph: Bündelung des Wissens von Fan-Gemeinschaften in einem domänenspezifischen Knowledge Graph

Magnus Pfeffer1, Zoltan Kacsuk1, Martin Roth2

1Hochschule der Medien Stuttgart, Deutschland; 2Ritsumeikan University, Kyoto, Japan

Im DFG-geförderten Projekt "Japanese Visual Media Graph" (mediagraph.link) wird ein Knowledge Graph für die Domäne der japanischen visuellen Medien erstellt. Die Daten stammen von Websites, die von Fan-Gemeinschaften betrieben werden. Die Projektziele umfassen den Aufbau einer stabilen Zusammenarbeit und Lizenzvereinbarungen mit den einzelnen Gemeinschaften, die Erstellung eines Datenmodells, das die Sicht der unterschiedlichen Gemeinschaften und der Fachwissenschaft auf die Domäne integriert, den Aufbau der technischen Infrastruktur und die Integration der Daten in das gemeinsame Modell. Darüber hinaus stellen Qualitätsanalysen und der prototypische Einsatz der Daten und der Infrastruktur zur Bearbeitung wissenschaftlicher Fragestellungen sicher, dass das Datenmodell und der Zugang zu den Daten den Bedürfnissen von Fachwissenschaftler:innen genügt. Das Projekt ist in 2019 gestartet und schon weit fortgeschritten. Der Vortrag geht auf wesentliche Ergebnisse und besondere Herausforderungen ein, die im Projektverlauf aufgetreten sind.



Aufführungsinformationen in der Mixed Music – systematische Herausforderungen als Indikatoren musikpraktischer Tendenzen

Miriam Akkermann

TU Dresden, Germany

Aufführungsinformationen zu musikalischen Arbeiten im Bereich Elektroakustische Musik und Computermusik werfen grundlegenden terminologischen Herausforderungen auf, sowohl in Bezug auf eventuelle Zuordnungen zu Modellen für Normdaten als auch hinsichtlich der in den Quellen verwendeten Bezeichnungen. Gleichwohl spiegeln diese vielfältigen und nicht einheitlichen Bezeichnungen gerade der technischen Instrumentierung implizit zwei Aspekte wider: die Entwicklung der Technologien und die musikpraktischen Tendenzen. Besonders deutlich tritt dies in der Mixed Music hervor. Anhand eines Aufführungsdatensatzes zu Mixed Music Kompositionen der 1980er Jahre werden begriffliche Inkonsistenzen aufgezeigt und Indikatoren herausgearbeitet, die Anhaltspunkte für aufführungspraktische Merkmale bieten können.

 
9:15 - 10:45DC1: Doctoral Consortium 1
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 3
Chair der Sitzung: Evelyn Gius, Technische Universität Darmstadt
Zoom-Kenncode: 58202857
 

Selektion und Nutzer*innen-Position in traditionellen und Internet-Informationsintermediären

Katharina Leyrer

FAU Erlangen-Nürnberg, Germany



Digitale Methodenkritik - Die Integration computergestützter Textanalyseverfahren in den Werkzeugkasten der Historiker:innen

Melanie Althage

Humboldt-Universität zu Berlin, Germany



Transformation der Geschichtsschreibung? Digitale Ansätze in der Erforschung von Geschichte und deren epistemologische Implikationen (Arbeitstitel)

Anna Siebold

Max-Planck-Institut für Wissenschaftsgeschichte und Carl von Ossietzky Universität Oldenburg

 
10:45 - 11:15Kaffeepause
11:15 - 12:45V2_1: Computationelle Analyse poetischer Sprachverwendung
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 1
Chair der Sitzung: Ulrike Henny-Krahmer, Universität Rostock
Zoom-Kenncode: 23486091
 

Genitivmetaphern in der Lyrik des Realismus und der frühen Moderne

Merten Kröncke2, Leonard Konle1, Fotis Jannidis1, Simone Winko2

1Universität Würzburg, Germany; 2Universität Göttingen, Germany

Ein wichtiger Aspekt der sprachlichen Gestaltung literarischer Texte besteht im Einsatz von Metaphern, Metonymien und Tropen im Allgemeinen. Einzelnen Werken, aber auch ganzen Gattungen oder Epochen wird zugeschrieben, dass ihre Spezifik nicht zuletzt in einer jeweils charakteristischen Verwendungsweise uneigentlicher Rede gründe. Unter anderem betrifft das die Geschichte der Lyrik, das heißt die Geschichte einer Gattung, die laut Benjamin Specht „in Bezug auf die Verwendung von Metaphern die weitesten Lizenzen besitzt.“

Das Ziel dieses Beitrags besteht darin, den Gebrauch von Metaphern in der deutschsprachigen Lyrik des Realismus und der frühen Moderne mithilfe automatisierter, quantitativer Methoden zu identifizieren und zu analysieren. Damit sollen mehrere literarhistorische Forschungsthesen auf einer breiten Datengrundlage geprüft und gegebenenfalls differenziert werden.



Poesie als Fehler. Ein ‘Tool Misuse’-Experiment zur Prozessierung von Lyrik

Henny Sluyter-Gäthje, Peer Trilcke

Universität Potsdam, Germany

Analysen der Computational Literary Studies (CLS) vorverarbeiten ihre Untersuchungsgegenstände typischerweise mit Tools des Natural Language Processing (NLP). Dabei weichen literarische Texte aufgrund ihrer historischen und/oder ästhetischen Eigenart teils eklatant von den Daten ab, auf deren Grundlage die Models der NLP-Tools erstellt wurden, entsprechend sinkt die Accuracy der Tools. Für die CLS könnte die ‘Fehlerhaftigkeit’ der Tools im Sinne devianzpoetischer Positionen die Möglichkeit bieten, ein computationelles Verständnis vom spezifischen Abweichungscharakter literarischer Texte zu auszubilden. Für den Beitrag haben wir eine Pipeline zur Verarbeitung von Lyrik entwickelt, die potenzielle ‘Fehler’ von NLP-Tools sammelt und diese ‘Fehler’ regelbasiert typologisiert. Die Ergebnisse eines ersten Experiments mit dieser Pipeline werden im Beitrag vorgestellt. Damit möchten wir für die CLS auch exemplarisch den Ansatz des „Tool Misuse“ profilieren, bei dem die Erzeugung von ‘fehlerhaftem’ Output computationeller Tools Grundlage für Erkenntnisse über Literatur wird.



“Wie Wölkchen im Morgenlicht” - zur automatisierten Metaphern-Erkennung und der Datenbank literarischer Raummetaphern laRa

Mareike Schumacher

Technische Universität Darmstadt, Germany

In diesem Beitrag werden zwei methodische Herangehensweisen an das Phänomen literarischer Raummetaphern im 18.-21 Jahrhundert kontrastiert. Ausgangspunkt der Untersuchung war die automatische Erkennung und Klassifizierung von Raumreferenzen in literaischen Texten mithilfe von Machine-Learning-Technologie. Da Metaphern sich dabei als erheblicher Störfaktor erwiesen, wurden diese zunächst ins Training mit einbezogen. Als die Methode der automatisierten Metaphern-Erkennung scheiterte, wurde eine relationale Graphdatenbank literarischer Raummetaphern (laRa) angelegt. Eine Metadatenanalyse von laRa zeigt, warum das maschinelle Erlernen der Erkennung von Raummetaphern in literarischen Texten scheitern musste. Sie gibt außerdem eine Reihe von Hinweisen auf Gestaltung und Nutzung literarischer Raummetaphern. Eine Beispielanalyse der “Weg”-Metapher verdeutlicht, inwiefern Spezifik und Variantenreichtum im diachronen Verlauf charakteristisch für Raummetaphern sind und dient als Cross-Falsifizierung der zuerst gewählten Methodik.

 
11:15 - 12:45P2: Panel 2: Kinetik und Methodik. Film als dynamische und multimodale Herausforderung für die DH
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch Panels
Zoom-Kenncode: 50773448
 

Kinetik und Methodik. Film als dynamische und multimodale Herausforderung für die DH

Chair(s): Gernot Howanitz (Universität Innsbruck, Austria)

Vortragende: John Bateman (Universität Bremen), Josephine Diecke (Universität Marburg), Ralph Ewerth (Universität Hannover), Adelheid Heftberger (Bundesarchiv), Simon Spiegel (Universität Zürich), Miriam Loertscher (Zürcher Hochschule der Künste)

Wo sind sie, die ‚kinetischen‘ Methoden für die Filmanalyse, die dem Film als sowohl dynamisches als auch multimodales Medium zumindest ein Stück weit gerecht werden können? Dieser Frage gehen im Rahmen des Panels fünf ausgewiesene Expertinnen und Experten aus der Filmwissenschaft und der Informatik nach, die jeweils auch Erfahrung im DH-Kontext gesammelt haben. Diskutiert werden die Innovationen des Deep Learning und deren Potenzial für die Filmwissenschaft, weitere methodische Neuerungen wie Eye Tracking, aber auch die Perspektive der Lehre, der Theoriebildung und der GLAM (Galerien, Bibliotheken, Archive, Museen). Erklärtes Ziel ist, diese unterschiedlichen Perspektiven im Panel zusammenzuführen, um einen ersten Schritt in Richtung ‚kinetische‘ DH zu gehen. Dabei wird auch das Publikum aktiv in die Diskussion eingebunden.

 
11:15 - 12:45V2_2: Das Wissen der Digital Humanities
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 2
Chair der Sitzung: Andreas Henrich, Otto-Friedrich-Universität Bamberg
Zoom-Kenncode: 57941145
 

Erweiterungen der Digital Humanities durch kulturwissenschaftliche Perspektiven

Lina Franken

LMU München, Germany

Die Digital Humanities haben sich zu einer interdisziplinären „Transformationswissenschaft“ (Jannidis et al. 2017: XI) entwickelt, die aus zahlreichen Richtungen diskutiert und deren Perspektive immer wieder auch durch neue Herkunftsdisziplinen bereichert wird, die sich hin zur DH öffnen. Bisher fehlt allerdings die kulturwissenschaftliche Perspektive weitestgehend. Der vorliegende Beitrag möchte diese Leerstelle beleuchten und fragt danach, warum die Kulturwissenschaften in den Digital Humanities aktuell noch kaum vertreten sind. Er geht außerdem der Frage nach, welche Spezifika die Kulturwissenschaften in die DH einbringen und wie die entstehende Transformationswissenschaft im Sinne einer „Big Digital Humanites“ (Svensson 2016) durch eben jene Perspektiven bereichert werden kann.



Gedächtnis digitaler Kulturen und digitaler Geisteswissenschaften - Plädoyer für eine Wissenschaftsgeschichte der DH

Toni Bernhart

Universität Stuttgart, Germany

Der Beitrag präsentiert ausgewählte Endergebnisse des DFG-geförderten Forschungsprojekts „Quantitative Literaturwissenschaft“ (2015-2020) und versteht sich als ein Plädoyer für eine Wissenschaftsgeschichte der Digital Humanities, die ihrer internationalen Diversifizierung und Reputation gerecht wird. Anhand der Beispiele von Sir Thomas Young, Thomas C. Mendenhall und Karl Groos demonstriert der Beitrag Ähnlichkeiten operationalisierender, quantifizierender, algorithmisierender und digitaler Ansätze vom 19. bis ins 21. Jahrhundert. Gemeinsamkeiten bestehen in den Ansprüchen, schneller und effizienter zu Ergebnissen zu kommen, auf der Grundlage der gewonnenen Daten intersubjektive und interoperable Vergleichs- und Austauschmöglichkeiten herzustellen, einen verborgenen und nicht-bewussten Informationsgehalt literarischer oder künstlerischer Werke offenzulegen und darüber hinaus neue und ungewöhnliche Forschungsfragen hervorzubringen.Charakteristisch für diese Ansprüche ist zudem ein disziplinenübergreifender Ansatz, der schon sehr früh zu beobachten ist.



Kategorientheoretische Ontologieentwicklung und Wissensmodellierung für die Digital Humanities

Dominik Gerstorfer

TU Darmstadt, Germany

Ontologien und andere Wissensrepräsentationen sind in den Digital Humanities allgegenwärtig, sie werden in der Regel in zwei getrennten Arbeitsschritten entwickelt: Zuerst findet die konzeptuelle Entwicklung statt, bei der der Untersuchungsgegenstand durch geisteswissenschaftliche Reflexion analysiert wird, danach erfolgt die informatische Implementation. Diese Aufteilung führt oft zu Reibungsverlusten, Fehlern und erhöhtem Arbeitsaufwand. Wünschenswert wäre ein Modell, das konzeptuelle Entwicklung und informatische Implementation integriert.

In diesem Beitrag wird ein vielversprechender Kandidat für ein solches integriertes Modell vorgestellt: Ontology Logs (ologs). Ologs basieren auf mathematischer Kategorientheorie und unterstützen die gedankliche Ausarbeitung einerseits und gewährleisten die unkomplizierte Implementation als Datenschemata andererseits. Des Weiteren erlauben ologs die Modellierung von Differenzen und Äquivalenzen zwischen unterschiedlichen Perspektiven und erleichtern die Ontologieentwicklung durch rules of good practice.

 
11:15 - 12:45DC2: Doctoral Consortium 2
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 3
Chair der Sitzung: Michaela Geierhos, Universität der Bundeswehr München
Zoom-Kenncode: 58202857
 

Das mediale und politische Framing von Extremismusformen im Zeitraum der Jahre 1999 – 2021

Tim Feldmüller

Universität Leipzig, Germany



Adnominale Possession in einem Bibel-Parallelkorpus

Florian Fleischmann

LMU München, Germany



Kontextwissen zu historischen Quellen im Semantic Web. Die computergestützte Analyse heraldischer Wand- und Deckenmalereien mit Hilfe von Background Knowledge

Philipp Schneider

Humboldt-Universität zu Berlin, Germany

 
12:45 - 14:00Mittagspause
13:00 - 14:00Mittagsmesse
Virtueller Veranstaltungsort: DHd2022 Gathertown
Passwort: dhd2022
Unsere Förderer und Sponsoren De Gruyter, SAP und der Verein »Geistes- und kulturwissenschaftliche Forschungsinfrastrukturen e.V.« empfangen Sie persönlich an ihren Ständen.
14:00 - 15:30V3_1: Propädeutik und Didaktik der Digital Humanities
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 1
Chair der Sitzung: Jan Horstmann, Universität Münster
Zoom-Kenncode: 23486091
 

Forschendes Lernen digital

Sandra Bläß1, Marie Flüh1, Dominik Gerstorfer2, Evelyn Gius2, Malte Meister2, Julia Nantke1, Mareike Schumacher2

1Universität Hamburg, Germany; 2Technische Universität Darmstadt

In diesem Beitrag stellen wir mit Bezug auf das Konzept des Forschenden Lernens ein Lehr-Lernszenario vor, das aus einer Kooperation der Projekte Dehmel digital und forTEXT hervorgegangen ist. Forschenden Lernen zeichnet sich insbesondere dadurch aus, dass Studierende sowohl passiv-rezeptiv als auch aktiv lernen, indem sie an einem Forschungsprozess teilhaben. Das Forschungs- und Editionsprojekt Dehmel digital bietet dafür einen breiten Rahmen, da von der Digitalisierung über die Erschließung bis zur Interpretation von Daten sehr unterschiedliche Phasen des Forschungsprozesses durchlaufen werden. Für all diese Phasen sind digitale Methoden die Basis. Die Vermittlung dieser Methoden ist die Kernaufgabe von forTEXT. Die hier entwickelten Lehr- und Lernmaterialien haben einen starken Praxisbezug und bieten darum eine gute Grundlage für Forschendes Lernen in der universitären Lehre. Im Beitrag wird gezeigt, wie Forschendes Lernen in den Digital Humanities umgesetzt werden kann und wie Studierende hierbei nicht nur zu erfahrungsbasiertem Wissen, sondern auch einer theoretisch-hermeneutischen Reflexion kommen können.



Hackathons als kollektiv-kreative Bildungsereignisse. Ein Konzept zur Gestaltung offener Lehrveranstaltungen in den Digital Humanities

Dennis Mischke1, Peer Trilcke2, Henny Sluyter-Gäthje2

1Freie Universität Berlin, Germany; 2Universität Potsdam, Germany

Der Beitrag widmet sich programmatisch und konzeptionell einer didaktischen Aufbereitung, Erforschung und Erprobung des Formates “Hackathon” als hochschuldidaktisches Format im Kontext der Digital Humanities. Wir berichten exemplarisch von Konzepten und Erfahrungen mit lehr-orientierten DH-Hackathons und deren Bildungswissenschaftliche Rahmung und Verzahnung mit anderen Lehrveranstaltungen zur DH-Methodenbildung.



Data Cleaning als digitale Quellenkritik: VD17 und das Genre der katholischen Dissertation im Alten Reich

Stefan Heßbrüggen-Walter

HSE University, Russian Federation

Im Beitrag wird die These vertreten, dass die Nutzung von Metadaten für Forschung in den digitalen Geisteswissenschaften, wie andere historische Forschung auch, digitale Quellenkritik voraussetzt. Diese Quellenkritik findet schon in der Vorbereitung von Daten für die Analyse, dem sogenannten data cleaning statt. Untersucht werden Metadaten zu philosophischen Dissertationen des 17. Jahrhunderts, die an katholischen Bildungseinrichtungen entstanden sind und in VD17, der deutschen Nationalbibliographie für Drucke dieser Periode, verzeichnet sind. Im Mittelpunkt steht dabei die Frage, wie viele solcher Dissertationen in VD17 enthalten sind. Zu zeigen ist, warum die Beantwortung dieser Frage schwerer fällt, als dies zunächst zu erwarten war.

 
14:00 - 15:30P3: Panel 3: Offen für alle(s)? -- Open Identities im Reviewprozess der DHd-Konferenz
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch Panels
Zoom-Kenncode: 50773448
 

Offen für alle(s)? -- Open Identities im Reviewprozess der DHd-Konferenz

Chair(s): Manuel Burghardt (Universität Leipzig), Lisa Dieckmann (Universität zu Köln), Svenja Guhr (Technische Universität Darmstadt), Nils Reiter (Universität zu Köln), Walter Scholger (Universität Graz), Ulrike Wuttke (Fachhochschule Potsdam)

Vortragende: Alexander Czmiel (Berlin-Brandenburgische Akademie der Wissenschaften), Lisa Dieckmann (Universität zu Köln), Svenja Guhr (Technische Universität Darmstadt), Janina Jacke (Technische Universität Darmstadt), Nils Reiter (Universität zu Köln), Walter Scholger (Universität Graz)

Peer Reviewing von Forschungsbeiträgen ist ein zentraler Pfeiler wissenschaftlicher Qualitätssicherung, und findet auch bei den DHd-Jahrestagungen seine Anwendung findet. Für die Umsetzung des Peer Reviewing gibt es unterschiedliche Modelle, Gepflogenheiten, Erfahrungen und Erwartungen.

Das bei DHd-Konferenzen bis inklusive 2020 verwendete Modell der Teilanonymisierung (sog. single-blind-Modell), bei dem die Autor:innen den Gutachter:innen namentlich bekannt waren, jedoch nicht umgekehrt, wurde nach einem Beschluss der Mitgliederversammlung 2020 probeweise durch ein zero-blind-Modell abgelöst.

Dieses Panel soll der DHd-Community die Möglichkeit geben, sich über das Begutachtungsverfahren zu informieren und auszutauschen in einem Rahmen außerhalb der Mitgliederversammlung, um der Diskussion mehr Zeit zu geben und auch die vielen betroffenen Nicht-Mitglieder zu integrieren.

Erfahrungen aus DHd-Diskussionen sowie Publikationen zum Thema legen nahe, dass im Aspekt der Offenlegung der Identität bzw. Anonymität das größte Potential für Kontroversen liegt. Im Panel soll daher dieser Aspekt in den Fokus genommen werden.

 
14:00 - 15:30V3_2: Historische Netzwerkanalyse
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 2
Chair der Sitzung: Katrin Glinka, Freie Universität Berlin
Zoom-Kenncode: 57941145
 

Fluch und Segen der Visualisierung: Unterschiedliche Zielfunktionen im Forschungsprozess der historischen Netzwerkanalyse

Sandra Balck1, Sina Menzel2, Vivien Petras1, Hannes Schnaitter1, Josefine Zinck1

1Humboldt-Universität zu Berlin, Germany; 2Freie Universität Berlin, Germany

In einer Interviewstudie mit sieben Forschenden der historischen Netzwerkanalyse (HNA) wurden die wichtigsten Einsatzgebiete von Visualisierungen im Forschungsprozess identifiziert: Theorieentwicklung und Datenexploration, Datenqualitätsüberprüfung, Analyse sowie Präsentation der Ergebnisse. Die Diskussion der Visualisierungen zeigt ein zwiespältiges Verhältnis der Community: sie werden von den Forschenden sehr differenziert betrachtet, sowohl wenn es um den Zeitpunkt ihres Einsatzes im Forschungsprozess geht und wer für die Entwicklung der Visualisierungen zuständig sein sollte, aber auch, ob diese der Präsentation der Forschungsergebnisse in der historischen Forschungscommunity zuträglich ist oder nicht. Dabei werden zwei Zielfunktionen unterschieden: Visualisierungen für die Exploration bzw. Analyse und erläuternde Visualisierungen. Entscheidend für die Akzeptanz von Visualisierungen ist deren Dokumentation und Kontextualisierung einschließlich der in ihnen enthaltenen Daten, um eine verlässliche Grundlage für die Forschung zu gewährleisten.



Was sehe ich? Visualisierungsstrategien für Datentransparenz in der Historischen Netzwerkanalyse

Mark-Jan Bludau1, Thorsten Halling2, Eva Maria Holly3, Jasmin Wieloch2, Hannes Schnaitter4, Sandra Balck4, Melina Plakidis5, Georg Rehm5, Heiner Fangerau2, Marian Dörk1

1Fachhochschule Potsdam, UCLAB; 2Heinrich-Heine-Universität Düsseldorf, Medizinische Fakultät, Institut für Geschichte, Theorie und Ethik der Medizin; 3Heinrich-Heine-Universität Düsseldorf, Abteilung Wirtschaftsgeschichte; 4Humboldt-Universität zu Berlin, Institut für Bibliotheks- und Informationswissenschaft; 5Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI), Speech and Language Technology Lab

Die Historische Netzwerkanalyse (HNA) hat sich zu einem etablierten Forschungsfeld entwickelt. Zu ihren wichtigsten methodischen Herausforderungen gehört die Suggestionskraft von Visualisierungen. Die Transparenz bezüglich der Datenquellen ist daher für die HNA sowohl bei selbst erhobenen als auch bei sekundär genutzten Daten Voraussetzung, will sie geisteswissenschaftlichen Kriterien der Nachprüfbarkeit und Nachvollziehbarkeit von Interpretationen erfüllen. Dieser Beitrag beschreibt und diskutiert – aufbauend auf einem iterativen und durch Workshops sowie einer Nutzer*innenstudie begleiteten Forschungsprozess – vier Designziele zur Verwirklichung einer solchen Transparenz: 1) Aufnahme und Kommunikation von Datenprovenienzen, 2) Dokumentation vorausgegangener Prozesse, 3) Offenhaltung der Interpretierbarkeit der Daten und 4) Unterstützung von Folgeforschung. Anschließend werden beispielhafte Umsetzungsstrategien in Form von Prototypen präsentiert.



Praktiken der digitalen Erinnerung an den 2. Weltkrieg: Netzwerkmodelierungen des „Axis History Forum“

Anastasia Glawion

TU Darmstadt, Germany

In diesem Beitrag stelle ich die Ergebnisse meiner Dissertation vor, in der Netzwerkmodelierungen auf drei Arten angewendet wurden: (1) um Daten der Nutzerbeziehungen des militärgeschichtlichen Axis History Forums (AHF) zu visualisieren und besonders dichte Cluster zu ermitteln, die als Praktiken der digitalen Erinnerung interpretiert wurden; (2) als Auswertung von Topic-Modeling-Daten auf der Basis der Clusterkorpora aus (1), wobei die Netzwerkmodelierung als Visualisierung der Begriffsüberschneidungen eingesetzt wurde, und schließlich (3) als Kontextualisierung von Schlüsseldiskussionen der Cluster aus (1): hierbei wurde die Klassifizierung eines Samples aus 50 Diskussionen pro Cluster im Zusammenhang mit ihrer Position im bimodalen Nutzer-Diskussions-Netzwerk interpretiert.

Der Ansatz ermöglichte es, das AHF-Corpus, das aus Nutzerbeziehungen und Texten besteht, verlässlich zu interpretieren und die dort vorhandenen Praktiken in empirische, konversationelle und konservierende Praktiken zu unterteilen. Die kulturwissenschaftliche Theorie des kollektiven Gedächtnisses bekommt so einen Operationalisierungsansatz, der mit Hilfe von digitalen Methoden in einer vielseitigen Interpretation der digitalen Plattform AHF resultiert.

 
14:00 - 15:30DC3: Doctoral Consortium 3
Virtueller Veranstaltungsort: DHd2022 Zoom Mittwoch 3
Chair der Sitzung: Mareike König, Deutsches Historisches Institut Paris
Zoom-Kenncode: 58202857
 

Relating the Unread: Modellierungen der Literaturgeschichte

Judith Brottrager

TU Darmstadt, Germany



The Remembered, A Global Study of Literature Dissertations' Bibliography

Silvia Eunice Gutiérrez De la Torre

Leipzig Universität, Deutschland

 
15:30 - 16:00Kaffeepause
16:00 - 17:00K2_1: Stadt- und Parkspaziergang durch Potsdam
Ort: DHd2022 Zoom Führungen
Dein Potsdam in 360 Grad – Der digitale Stadtspaziergang
Beschreibung: Der Spaziergang beleuchtet die Stadtgeschichte – vom Museum Barberini über den Alten Markt durch die Innenstadt bis zum Holländischen Viertel.
16:00 - 17:00K2_2: Führung durchs DIGAREC
Ort: DHd2022 Zoom Führungen
Virtuelle Ausstellung im DIGAREC - Zentrum für Computerspielforschung.
Weitere Informationen zur Führung.
16:00 - 18:00Mitgliederversammlung
Virtueller Veranstaltungsort: DHd-Verband Zoom Mitgliederversammlung 2022
Zoom-Kenncode: 14468819
18:30 - 19:30MB1: Museum Barberini - Online Live Tour: virtueller 360° Rundgang durch die Sammlung
Ort: DHd2022 Zoom Führungen
Virtuelle Führung durchs Museum Barberini
20:00 - 21:00MB2: Museum Barberini - Online Live Tour: virtueller 360° Rundgang durch die Sammlung
Ort: DHd2022 Zoom Führungen
Virtuelle Führung durchs Museum Barberini
Datum: Donnerstag, 10.03.2022
8:30 - 19:00Öffnungszeiten Digitales Konferenzbüro
Virtueller Veranstaltungsort: Konferenzbüro
Zoom-Kenncode: 25654227
9:15 - 10:45V4_1: Digitale Filmwissenschaft
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 1
Chair der Sitzung: Lisa Dieckmann, Universität zu Köln
Zoom-Kenncode: 02406823
 

Der Einsatz von Computer Vision-Methoden für Filme: Eine Fallanalyse für die Kriminalfilm-Reihe Tatort

Thomas Schmidt, Sarah Kurek

Lehrstuhl für Medieninformatik, Universität Regensburg

Wir präsentieren eine explorative Studie im Bereich Computer Vision (CV) und Filmanalyse. Als Fallbeispiel wird die berühmte Kriminalfilm-Reihe „Tatort“ gewählt. Im Fokus stehen dabei gruppenbasierte Vergleiche zwischen den Filmen von 4 ErmittlerInnen-Teams/Städten. Als CV-Methoden werden state-of-the-art-Modelle der Objekt-, Alters-, Geschlechts- Emotions- und Ortserkennung auf Frames eines Korpus bestehend aus 13 Filmen exploriert. Die Ergebnisse zeigen, dass die Serie in den Folgen des ausgewählten Korpus eher in Innenräumen spielt, Trauer und Neutralität die häufigsten Emotionsausdrücke sind und in der Mehrzahl männliche Figuren die Frames dominieren. Obschon signifikante Unterschiede zwischen den ErmittlerInnen-Teams/Städten bestehen, sind diese gemäß Post-Hoc-Tests eher gering. Wir berichten über unsere Erfahrungen mit den ausgewählten Methoden, die Probleme mit speziellen Charakteristiken von Filmen haben und schließen mit dem Ziel in größeren Annotationsstudien Trainingsmaterial zur Optimierung von CV-Methoden zu sammeln.



Empirische Aufmerksamkeitseffekte multimodaler Kohäsion im Film

Jochen Laubrock1,2, Chiao-I Tseng3

1Universität Potsdam; 2Medizinische Hochschule Brandenburg, Germany; 3Universität Bremen

Wir kombinieren die Diskursmethode multimodaler Kohäsion mit empirischen Daten zu Aufmerksamkeit und narrativem Verstehens. Multimodale Kohäsion bezieht systematisch die in auditiver, visueller und verbaler Modalität auftretenden Ereignisse auf modalitätsübergreifende Diskursstrukturen. Wir nutzen diese Diskursstrukturen, um daraus theoriegeleitet empirisch prüfbare Vorhersagen abzuleiten. Wir überprüfen mit Blickbewegungsexperimenten und Fragebogenstudien, wie kohäsive Hinweise Aufmerksamkeit und das Verständnis des Narrativs beeinflussen. Konkret haben wir mit Videobearbeitungssoftware kritische kohäsive Hinweisreize z.B. aus der Eingangsszene von Hitchcock's "The Birds" entfernt und mittels Eyetracking die Aufmerksamkeitsverteilung von insgesamt 114 Betrachtern gemessen. Unterschiedliche Gruppen von Probanden sahen Originale und manipulierte Versionen. Die kritischen kohäsiven Hinweisreize wurden im Original deutlich häufiger betrachtet als äquivalente Orte in der manipulierten Version. Also werden kohäsive Hinweise im Normalfall tatsächlich beachtet. Die Effekte kohäsiver Hinweise wirken nach: In einer anschließenden, für beide Versionen identischen Szene zeigten Betrachter ohne narrative Hinweise ein deutlich diffuseres Orientierungsverhalten. Narrative Elemente im Film lenken die Aufmerksamkeit des Betrachters.

 
9:15 - 10:45P4: Panel 4: Digitale Archive für Literatur
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag Panels
Zoom-Kenncode: 39985334
 

Digitale Archive für Literatur

Chair(s): Anna Busch (Theodor-Fontane-Archiv,Universität Potsdam), Peer Trilcke (Theodor-Fontane-Archiv,Universität Potsdam)

Vortragende: Bernhard Fetz (Literaturarchiv und Literaturmuseum Österreichische Nationalbibliothek), Marcel Lepper (Goethe- und Schiller-Archiv Weimar), Irmgard Wirtz Eybl (Schweizerisches Literaturarchiv), Sandra Richter (Deutsches Literaturarchiv Marbach)

Literaturarchive stehen durch die Digitalisierung derzeit vor einer Vielzahl an neuen Herausforderungen: Begriff, Praxis und Materialität des Literaturarchivs befinden sich in einem Transformationsprozess, der Thema dieses Panels unter dem Titel „Digitale Archive für Literatur“ ist. Die Reflexion dieses Prozesses muss dabei die Einzelinstitutionen notwendig überschreiten, gerade dort, wo es gemeinsame Praktiken, Routinen, Standards und Infrastrukturen zu entwickeln gilt. Das Panel greift diesen Bedarf durch seinen internationalen und interinstitutionellen Ansatz und die Besetzung mit je einer/m VertreterInnen aus einem bedeutenden Literaturarchiv aus dem DACH-Raum auf: Marcel Lepper (Goethe- und Schiller-Archiv Weimar), Bernhard Fetz, (Literaturarchiv und Literaturmuseum der Österreichische Nationalbibliothek, Wien) und Irmgard Wirtz Eybl (Schweizerisches Literaturarchiv, Bern). Organisiert und moderiert wird das Panel durch Anna Busch und Peer Trilcke (Theodor-Fontane-Archiv, Potsdam).

 
9:15 - 10:45V4_2: Digitale Kunstgeschichte
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 2
Chair der Sitzung: Waltraud von Pippich, Fraunhofer-Gesellschaft
Zoom-Kenncode: 75673403
 

iART: Eine Suchmaschine zur Unterstützung von bildorientierten Forschungsprozessen

Stefanie Schneider1, Matthias Springstein2, Javad Rahnama3, Hubertus Kohle1, Ralph Ewerth2,4, Eyke Hüllermeier1

1Ludwig-Maximilians-Universität München, Germany; 2Technische Informationsbibliothek (TIB), Germany; 3Universität Paderborn, Germany; 4Forschungszentrum L3S, Leibniz Universität Hannover, Germany

Mit iART wird eine offene Web-Plattform zur Suche in kunst- und kulturwissenschaftlichen Bildinventaren präsentiert, die von in den Geistes­wissenschaften etablierten Methoden wie dem Vergleichenden Sehen inspiriert ist. Das System integriert verschiedene maschinelle Lerntechniken für das schlagwort- und inhaltsgesteuerte Retrieval sowie die Kategorienbildung über Clustering. Mithilfe eines multimodalen Deep-Learning-Ansatzes ist es zudem möglich, text- und bildbasiert nach Konzepten zu suchen, die von trainierten Klassifikationsmodellen zuvor nicht erkannt wurden. Unterstützt von einer intuitiven Benutzeroberfläche, die die Untersuchung der Ergebnisse durch modifizierbare Objektansichten erlaubt, können Nutzer:innen circa eine Millionen Objekte aus kunsthistorisch relevanten Bilddatenbanken, etwa des niederländischen Rijksmuseums, explorieren. Ebenso können eigene Bestände importiert werden.



„Wertlose“ Taggings und ihr Nutzen für die Kunstgeschichte

Panoria Poetis, Emilia Radmacher, Katharina Smiatek, Stefanie Schneider

Ludwig-Maximilians-Universität München, Germany

Der Datensatz des Game with a Purpose ARTigo umfasst ein reiches Schlagwortrepertoire, das im Rahmen der Spielpraxis gesammelt wurde und Kunstobjekte inhaltlich, stilistisch und konnotativ beschreibt. Die Auswertung dieser Daten eröffnet die Möglichkeit einer kunsthistorischen Evaluation und Interpretation: Bei der Datenbereinigung werden in der Regel Informationen herausgefiltert, die als nutzlos oder inkorrekt kategorisiert werden. Doch tragen nicht auch diese „wertlosen“ Schlagwörter empirische Bedeutung in sich? Unsere Analyse belegt, dass Verwechslungen von Künstler:innennamen nicht willkürlich geschehen, sondern auf evidente Ähnlichkeiten in der Arbeitsweise und biografische Korrelationen der jeweiligen Künster:innen zurückzuführen sind. Für die Kunstgeschichte bedeutet dies, dass durch die „Weisheit der Vielen“ historisch bedeutsame Wechselbeziehungen offengelegt werden können, auch wenn die Spieler:innen keine Expert:innen des Faches sind.



Digitale Kontextualisierung und Visualisierung der Quellen-Trias Bild-Text-Realia zu historischer Kleidung, ihrer Ausformung, Zeichenhaftigkeit und Dreidimensionalität

Sabine de Günther, Linda Freyberg

Fachhochschule Potsdam, Germany

Kleidung, Tracht und Mode kommunizieren die Vorstellung des Trägers von Schönheit, Status, Körper, Form, sozialer Hierarchie und religiöser Zugehörigkeit, kurz: die Identität des Trägers. Die Informationen in den historischen Quellen zur Kleidung, in bildlichen Darstellungen, beschreibenden Texten und textilen Artefakten, werden in dem interdisziplinären Forschungs- und Digitalisierungsprojekt „Restaging Fashion. Digitale Kontextualisierung vestimentärer Quellen“ (UCLAB, Fachhochschule Potsdam) interpretiert und kontextualisiert. Eine tiefe inhaltlche Erschließung, sowie im Projekt angefertigte Digitalisate bilden dafür die Datenbasis. Ein besonderer Schwerpunkt wird zum einen auf der prototypischen 3D-Digitalisierung historischer Kleidung liegen. Zum Anderen wird die Datenvisualisierung als epistemisches Werkzeug sowohl im Prozess der Erfassung genutzt als auch für die Sammlungspräsentation im Web eingesetzt.

 
9:15 - 10:45V4_3: Forschungssoftware in den Humanities
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 3
Chair der Sitzung: Alexander Czmiel, Berlin-Brandenburgische Akademie der Wissenschaften
Zoom-Kenncode: 98516657
 

Softwarezitation als Technik der Wissenschaftskultur: vom Umgang mit Forschungssoftware in den Digital Humanities

Ulrike Henny-Krahmer1, Daniel Jettka2

1Universität Rostock, Germany; 2Universität Paderborn

Mit diesem Beitrag wird anhand einer Analyse der DHd-Konferenzabstracts der Jahrgänge 2016 bis 2020 untersucht, wie Forschungssoftware in den Digital Humanities zitiert wird. Zunächst wird erläutert, welche Relevanz Softwarezitation für die Anerkennung und Nachhaltigkeit von Forschungssoftware in den Digital Humanities hat. Im Anschluss werden bestehende Empfehlungen für Softwarezitation ausgewertet, um Bestandteile von Zitationen zu identifizieren, zu denen Informationen erhoben werden können. Ausgehend von den Abstractbänden der DHd-Konferenz wird eine Liste der in den Abstracts erwähnten Software generiert. Für eine Auswahl der so gefundenen Software wird geprüft, auf welche Weise sie zitiert wird und welche Informationen mit den Zitaten gegeben oder weggelassen werden.

Das Ziel der Analyse ist eine Bestandsaufnahme der Praxis der Softwarezitation in den Digital Humanities. Damit soll das Thema der Zitation von Forschungssoftware in den Digital Humanities in den Fokus gerückt werden, um eine Verbesserung der bestehenden Praxis zu fördern.



Executable Papers in den Computational Humanities

Niels-Oliver Walkowski1, Manuel Burghardt2

1Universität Luxemburg; 2Universität Leipzig

Der Vortrag untersucht die Potenziale und Herausforderungen von Executable Papers als Publikationsformat für geisteswissenschaftliche Forschungsergebnisse. Er stellt das Konzept der Executable Papers als bisher weitgehendste Realisierung der Idee des Literate Programmings von Donald Knuth vor und diskutiert, warum die dieser Idee zu Grunde liegende Verschmelzung von Code und Narration gerade für die Wissenschaftskommunikation in den Geisteswissenschaften einen großen Mehrwert haben kann. Den Potenzialen entgegen stehen eine Reihe technischer und sozio-kultureller Problemstellungen wie z. B. eine unzureichende Infrastruktur, ungenügende Reviewkriterien, unklare Publikationsworkflows oder die Rechtfertigbarkeit des Nutzens vor dem Hintergrund eines erheblich größeren Publikationsaufwands und des ökologischen Fußabdrucks. Diese und andere Aspekte wird der Vortrag an Hand von konkreter Executable Papers diskutieren, die im Zuge des vDHd 2021 Bandes bei Melusina Press veröffentlicht wurden. Die Auswertung der gemachten Erfahrungen soll einen Beitrag für die Weiterentwicklung des Formats sowie für die Etablierung von Best-Practices für seine Realisierung liefern.



Nachhaltige Softwareentwicklung – von der Inhouse-Lösung zur Open Source-Community am Beispiel von MerMEId

Ulrike Henny-Krahmer1, Peter Stadler2

1Universität Rostock, Germany; 2Universität Paderborn, Germany

Die nachhaltige Entwicklung von Forschungssoftware ist eine der zentralen Herausforderungen in den Digital Humanities. Während Praktiken der Überlieferung und Sicherung von Forschungsdaten schon einen gewissen Reifegrad erreicht haben, steckt die Kultur der Entwicklung eines digitalen Gedächtnisses in Bezug auf Software noch in den Anfängen. In diesem Beitrag werden bestehende Vorschläge für Nachhaltigkeitskriterien am Beispiel der Software MerMEId, einem Editor für Metadaten musikwissenschaftlicher Editionen, diskutiert. Dabei wird insbesondere die Entwicklungsgeschichte von MerMEId von einer In-House-Lösung zu einem Open Source Community-Projekt in den Blick genommen. Es zeigt sich, dass die positiven Effekte des Übergangs zu einer Community-Entwicklung von bestehenden Kriterien nur begrenzt erfasst werden. Auch sind manche Kriterien nur bedingt für eine DH-Software mit einer eher kleinen Nutzer*innenbasis und Community geeignet. Eine weitere Reflexion über Kriterien für nachhaltige Softwareentwicklung in den DH sowie eine regelmäßige Beurteilung der Nachhaltigkeit einzelner Software-Projekte bleiben daher unerlässlich.

 
10:45 - 11:15Kaffeepause
11:15 - 12:45V5_1: Dramenanalyse
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 1
Chair der Sitzung: J. Berenike Herrmann, Universität Bielefeld
Zoom-Kenncode: 02406823
 

Dramatische Metadaten – Die Datenbank deutschsprachiger Einakter 1740–1850

Dîlan Canan Çakir1, Frank Fischer2

1Universität Stuttgart; 2Higher School of Economics, Moskau

Die Einakterdatenbank stellt Metadaten zu den zwischen 1740 und 1850 veröffentlichten deutschsprachigen Einakter zur Verfügung und bereitet sie für die literaturwissenschaftliche Forschung auf.



Nathan nicht ihr Vater? – Wissensvermittlungen im Drama annotieren

Melanie Andresen1, Benjamin Krautter1, Janis Pagel1, Nils Reiter2

1Universität Stuttgart, Germany; 2Universität zu Köln, Germany

Die quantitative Dramenanalyse hat sich lange Zeit auf formale Merkmale der Textoberfläche konzentriert. Das Projekt Q:TRACK widmet sich einer stärker inhaltlich fokussierten Erschließung von Dramen, genauer Prozessen der Vermittlung von Wissen über Familienrelationen der Figuren. Das (fehlende) Wissen über Verwandtschaftsverhältnisse ist für zahlreiche deutschsprachige Dramen des 18. und 19. Jahrhunderts entscheidendes Element der Handlung, sodass sich eine systematische Untersuchung aufdrängt.

In diesem Beitrag gehen wir zunächst auf die Bedeutung von Wissen und Wissensvermittlungen für die Handlung wie auch die Wirkung von Dramen ein. Anschließend beschreiben wir, wie solche Prozesse der Wissensvermittlung in Annotationen erfasst und modelliert werden können. Am Beispiel von Gotthold Ephraim Lessings hochkanonischem Drama Nathan der Weise (1779) zeigen wir, wie sich die Analyse eines Dramas auf diese Annotationen aufbauen lässt. Im Fazit blicken wir auf Perspektiven für die Automatisierung und die quantitative Analyse größerer Dramenbestände.



Evaluation computergestützter Verfahren der Emotionsklassifikation für deutschsprachige Dramen um 1800

Thomas Schmidt1, Katrin Dennerlein2, Christian Wolff1

1Lehrstuhl für Medieninformatik, Universität Regensburg; 2Institut für Deutsche Philologie, JMU Würzburg

Wir präsentieren die Ergebnisse einer Evaluationsstudie zum Einsatz unterschiedlicher Verfahren des maschinellen Lernens für die Emotionsklassifikation auf historischen deutschen Dramen um 1800. Der Fokus liegt dabei auf Transformer-basierten Sprachmodellen wie BERT und ELECTRA vortrainiert auf zeitgenössischer und historischer Sprache. Als Gold Standard werden 5 Dramen des genannten Zeitraums bezüglich mehrerer Emotionskategorien annotiert. Die Evaluationsergebnisse zeigen, dass Transformer-basierte Modelle bessere Erkennungsraten erreichen als Baseline-Methoden wie lexikonbasierte Verfahren, bag-of-words-Ansätze oder statische Sprachmodelle. Für die Klassifikation der Polarität (positiv/negativ) wird eine Erkennungsrate von 83% erreicht. Die Erkennungsrate wird jedoch mit zunehmender Emotionszahl geringer. Historische Domänenadaption führt selten zu geringfügigen Verbesserungen in unserem Setting. Die besten Modelle sind hingegen die größten Sprachmodelle trainiert auf zeitgenössischer Sprache. Wir diskutieren unsere Ergebnisse und Impulse für die weitere Verbesserung.

 
11:15 - 12:45P5: Panel 5: Daten im Raum - Visualisierungen und Physikalisierungen im Medium Ausstellung
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag Panels
Zoom-Kenncode: 39985334
 

Daten im Raum - Visualisierungen und Physikalisierungen im Medium Ausstellung

Chair(s): Eva Tropper (Museumsakademie Joanneum, Graz), Florian Windhager (Universität für Weiterbildung, Krems)

Vortragende: Isabelle Bentz (Hochschule Luzern), Heike Gfrereis (Deutsches Literaturarchiv Marbach), Vera Hildenbrandt (Deutsches Literaturarchiv Marbach), Eva Offenberg (ART+COM AG), Eva Mayr (Universität für Weiterbildung, Krems)

In einer Gesellschaft, die in allen Feldern immer größere Datenmengen produziert, gewinnen Visualisierungen an Bedeutung – auch in Ausstellungen und Museen. Bildstatistiken, Zeitstrahlen, Karten oder Graphen ermöglichen die Darstellung komplexer Sachverhalte, die über Objekte allein nicht erzählt werden können. Das Spektrum der Formate in Museen reicht dabei von Informationsgrafiken, über interaktive Visualisierungen auf mobilen oder lokalen Screens, bis hin zu den raumgreifenden Anordnungen der “Datenphysikalisierung”, die sich nicht selten in Ausstellungen wiederfinden welche sich vom Originalobjekt ganz verabschiedet haben und Inhalte nur mehr über Informationsdesign erzählen. Gemeinsam mit Kuratorinnen, Informationsdesignerinnen und Kognitionswissenschafterinnen sondiert das Panel den gegenwärtigen Einsatz von Datenphysikalisierungen in unterschiedlichen Museumssparten und fragt, welche Möglichkeiten Ausstellungen haben, mit „Daten im Raum“ zu arbeiten. Was sind aktuelle Trends im Feld der Ausstellungsszenographie? Wie ist das Verhältnis zwischen zwei- und dreidimensionalen Visualisierungen? Welche Repräsentationen eignen sich für welche Besucher*innen und wie konsolidieren wir den methodologischen und gestalterischen Diskurs?

 
11:15 - 12:45V5_2: Zukünfte des digitalen Kulturerbes
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 2
Chair der Sitzung: Miriam Rürup, Moses Mendelssohn Zentrum
Zoom-Kenncode: 75673403
 

Die Aktualität des Unzeitgemäßen

Michael Krewet1, Felix Ernst2, Germaine Götzelmann2, Philipp Hegel3, Torsten Schenk3, Sibylle Söring1, Danah Tonne2

1Freie Universität Berlin, Germany; 2Karlsruher Institut für Technologie, Germany; 3Technische Universität Darmstadt, Germany

Der Vortrag rückt die neuen Forschungspraktiken und -möglichkeiten, die sich mit der Digitalisierung jenes Bereichs des kulturellen Gedächtnisses, den das Berliner Aristotelesarchiv bewahrt, in den Fokus. Dabei soll sich zeigen, dass auch ein Rückgriff auf ein nicht mehr zeitgemäß scheinendes Medium wie den Mikrofilm Optionen bereithält, digitale Verfahren anzuschließen. Als Grundlage und Umsetzung digitaler Forschung an Archivalien werden infrastrukturelle Komponenten, die Zugriff und Durchsuchbarkeit gewährleisten, mit forschungsnahen Werkzeugen verzahnt, die wissenschaftlichen und technischen Austausch sowie Nachnutzbarkeit der entstehenden FAIRen Forschungsdaten ermöglichen. Der Vortrag gibt Einblicke, wie man ein weltweit bedeutendes Archiv zukunftsgerichtet für digital gestützte Forschungen aufstellen und damit eine auch digital herausragende Forschungslandschaft konstituieren kann.



The Digital Archive and the Politics of Digitization

Gerben Zaagsma

Luxembourg Centre for Contemporary and Digital History (C²DH)

In this paper I will discuss key parameters of the politics of digitisation within a broader historical and global context with the aim to encourage further debate on its implications for historical research. In the first part, I will outline the global dimensions of the politics of digital cultural heritage with a particular focus on developments within and between Europe and Africa, framed within the broader context of the politics of heritage and its preservation and recent debates about ‘postcolonial digital humanities’. In the second part, I will discuss the history and current state of digitisation in Europe and Africa. Here I will partly draw upon the web archive of the IFLA/Unesco Directory of Digitised Library Collections (2002-2006) and recent global and European digitisation surveys. The paper will conclude by highlighting the paradoxical situation we currently face with regard to digitisation and the state of ‘memory’ in both the global North and South.



What's in a name? Die Rolle der Sprache zur Kultivierung von inklusiven Zugängen zu Kulturerbe

Nicole High-Steskal

Donau-Universität Krems, Austria

Die Diskussionen zum Umgang mit Kulturerbe und der Zugänglichkeit von Kulturdaten haben zuletzt durch postkoloniale Ansätze wieder an Bedeutung gewonnen. In der Literatur wurde bislang auf drei Faktoren hingewiesen, die Inklusion und Teilhabe an digitalen Projekten aus unterrepräsentierten Regionen beeinflussen können: 1. Sprache, 2. Netzwerke, 3. IT-Grundausstattung. Am Beispiel von Toponymen, die Monumente in der Kulturerbestätte Ephesos (Türkei) bezeichnen, wird gezeigt, dass die Aufarbeitung multilingualer Begriffe die Interoperabilität von Daten fördert und gleichzeitig inklusive Zugänge zu Kulturdaten schafft. Multilinguale (Norm-)Datensätze minimieren Sprachhürden und unterstützen die Netzwerkbildung und Auffindbarkeit von Daten über Sprachgrenzen hinweg. Um den technologischen Zugang zu erleichtern hat sich das Projekt für den Einsatz von Wikidata entschieden, wodurch gewährleistet wird, dass die multilingualen Daten leicht zu finden sind und auch problemlos ergänzt werden können. Es hat sich gezeigt, dass speziell die Dokumentation von Kulturerbe dadurch besser zugänglich gemacht und zur inklusiven und interkulturellen Zusammenarbeit eingesetzt werden kann.

 
11:15 - 12:45V5_3: Digitales Edieren
Virtueller Veranstaltungsort: DHd2022 Zoom Donnerstag 3
Chair der Sitzung: Patrick Sahle, Bergische Universität Wuppertal
Zoom-Kenncode: 98516657
 

Best of Both Worlds: Zur Kombination algorithmischer und manueller Verfahren bei der Erschließung großer Handschriftenkorpora

Julia Nantke1, Sandra Bläß1, Marie Flueh1, David Maus2

1Universität Hamburg, Germany; 2Staats- und Universitätsbibliothek Hamburg, Germany

In diesem Beitrag stellen wir den im Rahmen des Editions- und Forschungsprojekts Dehmel digital entwickelten Workflow zur computergestützten Erschließung großer Textkorpora vor. Es geht uns darum zu zeigen, wie algorithmische und manuelle Verfahren fruchtbar kombiniert werden können, um neue Wege der editorischen Präsentation zu ermöglichen. Digitale Verfahren der materiellen und inhaltlichen Erschließung sowie der Visualisierung und Vernetzung auf einem Webportal werden genutzt, um anstelle einzelner Autor:innen die in einem großen Briefkorpus materialisierten Netzwerke als Repräsentanten eines kollektiven Gedächtnisses in den Fokus zu rücken.



Handwritten Text Recognition und Word Mover’s Distance als Grundlagen der digitalen Edition “Die Kindheit Jesu Konrads von Fußesbrunnen”

Stefan Tomasek, Christian Reul, Maximilian Wehner

Universität Würzburg, Germany

Zur Zeit entsteht an der JMU Würzburg in einem Kooperationsprojekt zwischen dem Lehrstuhl für ältere deutsche Philologie und dem Zentrum für Philologie und Digitalität ein HTR-Projekt (Handwritten Text Recognition) zur Erfassung mittelhochdeutscher (mhd.) und frühneuhochdeutscher (frnhd.) Handschriften (Hss.) des 11.-15. Jh.s. Das Würzburger HTR-Projekt ist verzahnt mit dem digitalen Editionsprojekt der „Kindheit Jesu Konrads von Fußesbrunnen“ (KJ). Im Editionsprojekt wird die vollständige Überlieferungssituation des Textes synoptisch abgebildet. Um diese Synopse lesbar zu halten, soll mit Hilfe von Levenshtein-Distanzen (LevD) und einem Word-Embedding-Verfahren ein Filtersystem ermöglicht werden, mit dem die Genauigkeit des Anzeigemodus’ von den BenutzerInnen der Edition selbst festgelegt werden kann.



Dokument, Transkription, Forschungsdatum: Technische und kulturelle Überlegungen für interdisziplinäre Transkriptionspraxis

Konstantin Baierer1, Matthias Boenig2, Elisabeth Engl3, Mareen Geestmann4, Lena Hinrichsen3, Clemens Neudecker1, Paul Pestov4, Michelle Weidling4

1Staatsbibliothek zu Berlin – Preußischer Kulturbesitz; 2Berlin-Brandenburgische Akademie der Wissenschaften; 3Herzog August Bibliothek Wolfenbüttel; 4Niedersächsische Staats- und Universitätsbibliothek Göttingen

Wir plädieren für einen interdisziplinären Austausch, um die Transkriptionspraxis weiterzuentwickeln, sodass sie den Anforderungen verschiedener Disziplinen gerecht wird. Dazu gehen wir auf die Geschichte der Transkription als Technik ein und übertragen kulturelle sowie technische Aspekte auf digitale Methoden. Ein besonderes Augenmerk liegt auf Standards, die bei der maschinellen Verarbeitung essenziell sind und die Konventionen der analogen Transkription weiterführen. Wie eine Transkription automatisiert werden kann und welche Herausforderungen dabei bestehen, wird umrissen und es werden konkrete Empfehlungen ausgesprochen, wie sowohl bei manueller als auch bei automatischer Transkription Nachnutzbarkeit, Genauigkeit und Konsistenz sichergestellt werden können. Dabei betonen wir die Wertschätzung der Transkriptionsarbeit und wollen eine interdisziplinäre Diskussion um Konventionen und Standards anstoßen.

 
12:45 - 14:00Mittagspause
13:30 - 14:30AG Digital Humanities Theorie
Virtueller Veranstaltungsort: DHd2022 Zoom AG Digital Humanities Theorie
Zoom-Kenncode: 85800214
13:30 - 14:30AG Graphen und Netzwerke
Virtueller Veranstaltungsort: DHd2022 Zoom AG Graphen und Netzwerke
Zoom-Kenncode: 92639535
13:30 - 14:30AG Datenzentren
Virtueller Veranstaltungsort: DHd2022 Zoom AG Datenzentren
Zoom-Kenncode: 15705228
13:30 - 14:30AG Multilingual DH
Virtueller Veranstaltungsort: DHd2022 Zoom AG Multilingual DH
Zoom-Kenncode: 79565274
13:30 - 14:30AG Film und Video
Virtueller Veranstaltungsort: DHd2022 Zoom AG Film und Video
Zoom-Kenncode: 33097557
13:45 - 14:15SAP Teaser-Event zur Programmiersprache SNAP!
Virtueller Veranstaltungsort: SAP Teaser-Zoom
Zoom-Kenncode: 46321103
14:30 - 15:30AG Digitales Publizieren
Virtueller Veranstaltungsort: DHd2022 Zoom AG Digitales Publizieren
Zoom-Kenncode: 34611967
14:30 - 15:30AG Empowerment
Virtueller Veranstaltungsort: DHd2022 Zoom AG Empowerment
Zoom-Kenncode: 11172925
14:30 - 15:30AK Digitale Kunstgeschichte
Virtueller Veranstaltungsort: DHd2022 Zoom AK Digitale Kunstgeschichte
Zoom-Kenncode: 80265168
14:30 - 15:30AG Referenzcurriculum Digital Humanities
Virtueller Veranstaltungsort: DHd2022 Zoom AG Referenzcurriculum Digital Humanities
Zoom-Kenncode: 48798338
14:30 - 15:30AG Greening DH
Virtueller Veranstaltungsort: DHd2022 Zoom AG Greening DH
Zoom-Kenncode: 87132999
14:30 - 15:30AG Research Software Engineering
Virtueller Veranstaltungsort: DHd2022 Zoom AG Research Software Engineering
Zoom-Kenncode: 84520122
14:45 - 15:15SAP Teaser-Event zur Programmiersprache SNAP!
Virtueller Veranstaltungsort: SAP Teaser-Zoom
Zoom-Kenncode: 46321103
15:30 - 16:00Kaffeepause
16:00 - 17:30Posterslam
Virtueller Veranstaltungsort: DHd2022 Zoom Posterslam
Zoom-Kenncode: 69159847
17:30 - 20:00Postersession
Virtueller Veranstaltungsort: DHd2022 Gathertown
Passwort: dhd2022
 

Studying the ephemeral, cultures of digital oblivion

Michael Achmann, Lisa Hampel, Ruslan Asabidi, Christian Wolff

Lehrstuhl für Medieninformatik, Universität Regensburg, Germany

In diesem Beitrag stellen wir unsere Work-In-Progress Social-Media-Studie zu Instagram-Stories während der Bundestagswahl 2021 vor. Da es wenig Daten zu den Inhalten und Elementen der Stories gibt haben wir ein Annotationstool entwickelt, mit dem durch Crowdsourcing Stories auf privaten Profilen und denen von Influencern annotiert und beschrieben werden können. Zusätzlich wurden die Stories politischer Parteien und derer Spitzenkandidat*innen automatisiert gesammelt und teilautomatisiert annotiert. Die beiden Korpora werden im weiteren Verlauf miteinander verglichen um zunächst auf einer Metaebene unterschiede und parallelen der Story-Nutzung zwischen Privatpersonen und politischer Akteure sowie Influencern zu erfassen. Als Nebeneffekt erhalten wir ein Korpus das es entgegen der vorhandenen Literatur zum ersten Mal erlaubt quantitative Aussagen zu Instagram-Stories machen kann: Welche Elemente und Medien werden genutzt, welche Inhalte geteilt.



Digitalisierte Ego-Dokumente als Quellen für die historische Forschung

Katarzyna Adamczak, Arnošt Štanzel

Bayerische Staatsbibliothek, Germany

Die Bayerische Staatsbibliothek ist im Besitz tausender gedruckter Tagebücher, Autobiographien und Memoiren, aber auch Fotografien und Filmen. Neuerdings publiziert sie im Rahmen eines Projektes des Fachinformationsdienstes Ost-, Ostmittel- und Südosteuropa bislang unveröffentlichte Selbstzeugnisse digital. Der Publikationsdienst steht wissenschaftlichen Institutionen und auch Privatpersonen offen und umfasst Materialien mit Bezug zum östlichen und südöstlichen Europa, die Quellencharakter haben und in Deutschland vorliegen, aber durch kommerzielle Verlage nicht veröffentlicht werden.

Das Poster fokussiert zwei Aspekte der digitalen Bereitstellung von Ego-Dokumenten: Erstens die digitale Transformation unveröffentlichter Selbstzeugnisse, beginnend mit deren Anwerbung und Auswahl über die Klärung von Rechtsfragen bis hin zu Digitalisierung, Katalogisierung, Langzeitarchivierung und Online-Bereitstellung; zweitens die Verwendung von digitalisierten Ego-Dokumenten in Forschung und Lehre und der daraus resultierenden Kooperationsmöglichkeiten zwischen Privatpersonen, Forschungsinstituten, Universitäten und Bibliotheken.



Referenzierung des digitalen kulturellen (Text-)Erbes. Digitale Quellenkritik und Modellierung von Metadaten

Melanie Althage, Malte Dreyer, Rolf Guescini, Torsten Hiltmann, Anke Lüdeling, Carolin Odebrecht

Humboldt-Universität zu Berlin, Germany

Historische Textdaten wie etwa Urkunden, Briefe, Tagebücher aber auch literarische Texte sind integraler Bestandteil unseres kulturellen Erbes und insofern für viele geisteswissenschaftliche Fachbereiche wie die Sprach-, Literatur- und Geschichtswissenschaften die empirische Fxorschungsgrundlage. In unserem Beitrag zeigen wir anhand des Fachrepositoriums LAUDATIO, wie eine domänenspezifische Datendokumentation, -kritik und -referenzierung mit standardisierten Methoden (Unified Modeling Language, TEI framework, persistente ID) für die historisch arbeitenden Textwissenschaften umgesetzt werden kann. Die Dokumentation und Kritik nimmt sich dabei die historische Quellenkritik als Vorbild, die Informationen zu inneren und äußeren Merkmalen der Quellen aggregiert. Ein Schwerpunkt wird auf Personen- und Ortsbezüge gesetzt (Entity Management). Für die Weiterentwicklung von LAUDATIO wurden zur Identifikation der transdisziplinären Anforderungen an ein Forschungsdatenrepositorium mit den Fachbereichen User Stories entwickelt. Die so identifizierten Bedarfe und möglichen Workflows diskutieren wir im Rahmen der Posterpräsentation mit der Community.



NERDPool - Datenpool für Named Entity Recognition

Peter Andorfer1, Matthias Schlögl1, Roman Bleier2

1Österreichische Akademie der Wissenschaften, Austria; 2Universität Graz, Austria

In digitalen Editionen ist die automatische Erkennung und Annotation von Personen, Orten und Datumsangaben eine wichtige Aufgabe. Named Entity Recognition (NER) spielt dabei eine zentrale Rolle. Historische Texte bilden noch ein Problem, da oft zu wenig Trainingsmaterial zur Verfügung steht, um entsprechende ML-Modelle zu trainieren.Das Projekt NERDPool versucht einerseits existierende Editionsdaten zu nutzen und daraus einen Pool an Trainingsdaten zu generieren, sowie andererseits Workflows zu erproben und zu implementieren, die es erlauben, einfach und effizient bestehende Korpa manuell zu annotieren. Den Schwerpunkt setzt das Projekts auf frühneuzeitliche deutsche Texte. Die Datensätze werden über die Webapplikation https://nerdpool-api.acdh-dev.oeaw.ac.at/ respektive über eine impelementierte offene API veröffentlicht. Mit Stand mitte Juli umfasst NERDPool rund 23.500 annotierte Datensätze. Darunter sind etwa Akten vom Regensburger Reichstag von 1576, Ministerratsprotokolle Österreichs und der österreichisch-ungarischen Monarchie 1848–1918 oder die ersten Ausgaben des Wienerischen Diariums (um 1750).



Building and Improving an OCR Classifier for Republican Chinese Newspaper Text

Matthias Arnold1, Konstantin Henke2

1Heidelberg Centre for Transcultural Studies, Universität Heidelberg, Germany; 2Institut für Computerlinguistik, Universität Heidelberg, Germany

In our paper we present the first results from a systematic approach to full text extraction from a Republican China newspaper. Our basis is a small corpus for which also a ground truth exists. We present our character segmentation method which produces about 70.000 images of characters. Based on the hypothesis that pre-training on extensive amounts of suitably augmented character images will increase the OCR accuracy for evaluation on real-life character image data, we generated additional synthetic training data. We than compare the OCR recognition results and show that a combination of synthetic and real characters produces the best results. Finally, we propose a method that makes use of a masked language model to for OCR error correction.



Ontological modelling of the Greek Intangible Cultural Heritage for complex geo-semantic querying

Alkyoni Baglatzi1, Georgios Velissaropoulos2

1Spotlight on Innovation (SPOTIN) NPCC, Greece; 2Xorostasi NPCC, Greece

The current work proposes a new approach for formalizing and visualizing intangible cultural heritage assets. With the aid of semantic technologies (ontologies, linked open data, semantic reasoning etc), the domain knowledge is being formalized and provided in an interoperable form. Particular emphasis is given on the spatial and temporal dimension of the data. A web-based map platform is being developed as a central node for sharing all the data with the end users providing the opportunity to express complex spatiotemporal and thematic queries. The work focuses on traditional dances and songs from Greece.



Projektpräsentation: "Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede" (Gloss-ViBe)

Bernhard Bauer

Universität Graz, Austria

“Early Medieval Glosses And The Question Of Their Genesis: A Case Study On The Vienna Bede” (Gloss-ViBe) wird über ein H2020-MSCA Individual Fellowship finanziert. Das Projekt startet im September 2021 in Kollaboration mit dem Zentrum für Informationsmodellierung – Austrian Centre for Digital Humanities und dem Institut für Antike an der Universität Graz. Die zentrale Forschungsfrage bezieht sich auf die Genese der vernakulären frühmittelalterlichen keltischsprachigen Glossen: Sind die Glossen Originale oder Übersetzungen ursprünglich lateinischer Glossen? Um Antwort(en) auf diese Frage zu finden, wird eine Fallstudie an den keltischen und lateinischen Glossen der Handschrift Vienna, Österreichische Nationalbibliothek, Codex 15298 (olim Suppl. 2698) durchgeführt. Die beiden Hauptziele des Projekts sind:

1. eine umfassende digitale Edition des Wiener Beda mit allen Glossen und dem Hauptext und

2. ein interdisziplinäres theoretisches Framework um frühmittelalterliche (Parallel-)Glossen analysieren zu können, welches Methoden der digitalen Geisteswissenschaften, Philologie und Linguistik beinhalten wird.



Doing (Digital) History - Kollaborative Formen der Erforschung von Geschichte in sozialen Medien im Projekt #SocialMediaHistory

Mia Berg1, Andrea Lorenz2

1Ruhr-Universität Bochum, Deutschland; 2Universität Hamburg, Deutschland

Medien speichern, vermitteln und strukturieren Gedächtnis und Geschichte. Mit der Medienevolution wandeln sich folglich auch Erinnerungspraktiken. Das zeigt sich insbesondere in den sozialen Medien, deren “networked memories“ sich durch eine Pluralisierung und Fragmentierung individueller und kollektiver Erinnerungen auszeichnen. In der Geschichtswissenschaft sind „Social Media Memories“ bisher nur vereinzelt untersucht worden. Im Projekt „SocialMediaHistory“ sollen deshalb Konstitution, Produktion und Analyse digitaler Geschichte auf Instagram und TikTok erforscht werden. Das Projekt verfolgt dabei eine kollaborative Doing (Digital) History im doppelten Sinne: Durch die Erstellung eigener geschichtskultureller Produkte und als methodischer Zugang zu und Reflexion über Beschaffenheit und (automatisierte) Auswertbarkeit geschichtsbezogener Social Media Inhalte. Dabei sollen technische Bedingtheiten und kommerzielle Rahmungen des digitalen Gedächtnisses reflektiert und Datenbankarbeit und Sammlungsaufbau geleistet werden. Ziel ist eine Verzahnung von Geschichtswissenschaft und Digital Humanities und die Erprobung und Auslotung von Möglichkeiten und Grenzen – auf technischer und rechtlicher Ebene und auf Ebene der historischen Erkenntnis.



Semi-automatische Erschließung von Rechnungsbüchern am Beispiel des Stadtarchivs Leuven

Jan Bigalke, Sviatoslav Drach, Claes Neuefeind

Universität zu Köln, Deutschland

In unserem Beitrag präsentieren wir einen Prototypen zur semi-automatischen Erschließung einer großen Sammlung von Rechnungsbüchern des Stadtarchivs Leuven, den wir derzeit im Kontext des Projekts “Itinera Nova” entwickeln. Im Rahmen des Projekts, das sich seit 2009 der Erschließung der im Stadtarchiv der belgischen Stadt Leuven gesammelten 1127 Schöffenregister aus den Jahren 1362-1795 mit einem Umfang von ca. 1.000.000 Seiten widmet, wurden seit 2019 auch die dort ebenfalls vorliegenden 457 Rechnungsbücher digitalisiert. Die Erschließung der Schöffenregister wird derzeit von einer Community mit rund 50 Freiwilligen betrieben und von Archiv-MitarbeiterInnen gemanagt. Das Cologne Center for eHumanities (CCeH) stellt dabei u.a. eine spezifisch für das Projekt entwickelte Web-Plattform für die kollaborative manuelle Erschließung der Schöffenregister bereit, die Rechnungsbücher hingegen sind bislang noch nicht erschlossen.



„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Bereitstellung, Zugang und Analyse literarischer Blogs am Beispiel des Techniktagebuchs

André Blessing2, Jan Hess1, Kerstin Jung2

1Deutsches Literaturarchiv Marbach, Germany; 2Universität Stuttgart, Institut für maschinelle Sprachverarbeitung

„Ja, jetzt ist das langweilig. Aber in zwanzig Jahren!“ – Wie der Untertitel des Techniktagebuchs bereits suggeriert, versteht sich das 2014 von der Schriftstellerin Kathrin Passig ins Leben gerufene literarische Blog als Teil des kulturellen Gedächtnisses. Am Beispiel des Techniktagebuchs soll dieser Beitrag einerseits die Herausforderungen bei der wissenschaftlichen Arbeit mit diesen „born-digital“ Literaturformen aufzeigen sowie andererseits vor allem auch (explorative) Zugangs- und Analysemöglichkeiten literarischer Blogs präsentieren. Zum Beispiel können Netzwerkvisualisierungen zu den von den Autor:innen vergebenen Tags in Kombination mit dem Einsatz von Topic-Model-Analysen zeigen, dass diese manuell definierten Schlagwörter der Autor:innen nicht konsistent, mitunter eher humoristisch verwendet werden. Um das Techniktagebuch korpuslinguistisch und stilometrisch auszuwerten, kamen bislang CQPWeb sowie das R-Paket Stylo zum Einsatz, sodass auch hinsichtlich des Vokabulars und des individuellen Blog-Schreibstils Unterschiede aufgezeigt werden können.



What was Theoretical Biology? A Topic-Modelling Analysis of a Multilingual Corpus of Monographs and Journals, 1914-1945

Alexander Böhm1, Stefan Reiners-Selbach2, Jan Baedke1, Alejandro Fábregas Tejeda1, Daniel J. Nicholson3

1Department of Philosophy I, Ruhr University Bochum; 2Faculty of Arts and Humanities, Heinrich-Heine-University Düsseldorf; 3Department of Philosophy, George Mason University

Over the course of the twentieth century, theoretical biology changed beyond all recognition. Although the field today is synonymous with mathematical biology, when it first emerged it had a far more philosophical agenda. Regrettably, this early period of theoretical biology has been almost completely forgotten and its existence is seldom acknowledged—let alone carefully examined. Our aim is to rescue this multilingual corpus of monographs, book series and journal articles from the dustbin of history. Our guiding question is: What did theoretical biology look like in the early 20th century? We utilize LDA topic modelling (after machine translating where necessary), top2vec and document embeddings to create an interactive tool for the exploration of this corpus, which allows analyzing the development of early theoretical biology. Moreover, we calculate mathematization scores for the documents in our corpus to map the field’s increasing emphasis on formal modeling.



Training the Archive – Von der maschinellen Exploration musealer Sammlungsdaten zur Curator’s Machine

Dominik Bönisch

Ludwig Forum für Internationale Kunst, Germany

Das Forschungsprojekt „Training the Archive“ entwickelt am Ludwig Forum für Internationale Kunst Aachen im Verbund mit dem HMKV Hartware MedienKunstVerein, Dortmund und dem Visual Computing Institute der RWTH Aachen University ein kollaboratives Konzept zwischen Machine-Learning-Modellen und der kuratorischen Praxis, welches in die sogenannte Curator’s Machine mündet. Das Poster möchte das Forschungsprojekt, dessen Fragen und Prototypen sowie erste Lessons Learned vorstellen. Ziel des Projektes ist es, einen effektiven Prozess der Mensch-Maschine-Interaktion zu etablieren, um auch das historische, stilistische und objektbasierte Kontextwissen von Expert*innen über Kunstwerke in einer musealen Sammlung bzw. in einem digitalisierten Archiv einbeziehen zu können.



Der DHd Data Steward - Maßnahmen zur Entwicklung einer nachhaltigen Datenstrategie für die Digital Humanities im deutschsprachigen Raum

Rebekka Borges1, Anke Debbeler2, Patrick Helling2

1Rheinische Friedrich-Wilhelms-Universität Bonn, Deutschland; 2Data Center for the Humanites (DCH), Universität zu Köln, Deutschland

Mit der Ernennung eines Data Stewards hat der Verband Digital Humanities im deutschsprachigen Raum e.V. (DHd) auf der Jahreskonferenz 2020 in Paderborn eine Funktion geschaffen, um eine umfassende Datenstrategie für alle Materialien, Publikationen und Ergebnisse, die im Kontext des DHd-Verbandes entstanden sind/entstehen werden, zu entwickeln. Sie sollen im Sinne der FAIR-Prinzipien (1) langfristig gesichert und archiviert als auch (2) nach Möglichkeit nachhaltig publiziert und verfügbar gemacht werden.

Mit diesem Posterbeitrag soll die bisherige Arbeit des DHd Data Stewards in Bezug auf die DHd-Jahreskonferenzen präsentiert sowie ein Blick in die Datenzukunft des Verbandes gegeben werden.



Computational Literary Studies Data Landscape Review

Ingo Börner2, Vera Maria Charvat1, Matej Ďurčo1, Michał Mrugalski3, Carolin Odebrecht3

1Österreichische Akademie der Wissenschaften, Austrian Centre for Digital Humanities and Cultural Heritage (ACDH-CH); 2Universität Potsdam; 3Humboldt-Universität zu Berlin

Literarische Werke und deren digitale Repräsentationen stellen auch in den Fachbereichen der Computational Literary Studies (CLS) das Fundament für epistemische Auseinandersetzungen und Diskurse.

In unserem Teilprojekt Data Selection and Curation des europäischen "Computational Literary Studies Infrastructure"-Projekts möchten wir Brücken zu wissensbasierten Ressourcen für die CLS-Community aufbauen, um die Zugangsparadigmen für literarische Daten signifikant zu rekonfigurieren und erheblich zu verbessern.

Um die Auffindbarkeit und den forschungsorientierten Zugang zu literarischen Daten für die CLS-Community zu ermöglichen, ist eine Inventarisierung der CLS-Datenlandschaft erforderlich, die forschungsrelevante Kriterien für die Datenauswahl sowie deren Erfassung und Beschreibung anwendet. Mit dieser Inventarisierung, die wir in Form einer Data Landscape Review durchführen, kann die vorhandene Datenlandschaft als digitales Erbe für CLS-Kontexte erst umfassend sichtbar und als Vorlage für weitere Forschungsvorhaben zugänglich gemacht werden.

Unser Posterbeitrag präsentiert die Ergebnisse der Data Landscape Review, das Beschreibungsmodell, dessen Umsetzung in RDF und ein proof-of-concept des Online-Katalogs.



MUSE4Anything: Ontologiebasierte Generierung von Werkzeugen zur strukturierten Erfassung von Daten

Fabian Bühler1, Johanna Barzen1, Frank Leymann1, Bernhard Standl2, Nadine Schlomske-Bodenstein2

1Institut für Architektur von Anwendungssystemen (IAAS) - Universität Stuttgart; 2Institut für Informatik und digitale Bildung - Pädagogischen Hochschule Karlsruhe

Zur Erforschung von Text und Sprache, einem Kernbereich der Digital Humanities, existieren bereits verschiedene erprobte Werkzeuge und Forschungsmethoden. MUSE4Anything ist ein domänenunabhängiges Forschungswerkzeug, das die detaillierte und strukturierte Erfassung von komplexen Eigenschaften verschiedener Artefakte als Untersuchungsgrundlage von Forschungsfragen unterstützt. Das Werkzeug wurde basierend auf Erfahrungen aus den Projekten MUSE und MUSE4Music entwickelt und soll das dort angewandte Vorgehen für andere Forschungsfragen zugänglich machen. MUSE4Anything lässt sich individuell an die jeweilige Domäne anpassen. Dazu kann ein Benutzer des Werkzeuges beliebige Eigenschaften in Form einer Ontologie definieren. Die Erfassung der Eigenschaften mit dem MUSE4Anything Datenrepositorium erfolgt mit einer automatisch aus der vom Benutzer erstellten Ontologie generierten Eingabemaske.



Aufbau eines Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur”

Anna Busch1, Torsten Roeder2

1Theodor-Fontane-Archiv, Universität Potsdam; 2Bergische Universität Wuppertal, Germany

Der erste Satz eines literarischen Werkes erfährt in literaturwissenschaftlichen Untersuchungen oft besondere Beachtung. Autorinnen und Autoren gestalten den Anfangssatz gattungsunabhängig mit großer Sorgfalt, um in die Thematik des Textes einzuleiten, eine bestimmte Atmosphäre zu erzeugen oder um später wiederkehrende Motive einzuführen. Quasi als Incipits sind erste Sätze strukturell mit Titeln verwandt, konkurrieren dabei gelegentlich auch mit vorangestellten Mottos oder Sinnsprüchen. In der Literaturwissenschaft ist der “erste Satz” vielfach analysiert, aber nie auf Grundlage eines größeren Textkorpus quantitativ kategorisiert und typologisiert worden. Das zukünftige Referenzkorpus “Erste Sätze in der deutschsprachigen Literatur” möchte dazu beitragen, diese bestehende Lücke zu schließen. Das Poster stellt sowohl das bislang erarbeitete Datenkorpus vor als auch Ansätze einer quantitativen textanalytischen Auswertung.



Strukturen und Impulse zur Weiterentwicklung der DHd-Abstracts

Anna Busch2, Fabian Cremer4, Harald Lordick1, Dennis Mischke3, Timo Steyer5

1Steinheim-Institut (STI), Germany; 2Theodor-Fontane-Archiv, Universität Potsdam; 3Netzwerk Digitale Geisteswissenschaften, Universität Potsdam; 4Leibniz-Institut für Europäische Geschichte (IEG); 5Universitätsbibliothek Braunschweig

Der Beitrag stellt die aktuellen technischen Entwicklungen, organisatorischen Strukturen und konzeptionellen Ideen rund um die DHd-Abstracts vor und setzt die seit 2018 community-getriebenen Aktivitäten zur Verbesserung der Abstracts als (Daten)publikation fort. Das Poster stellt die Organisation und die Arbeit der DHd-Abstracts-Task-Force vor, die die weitere Standardisierung, Anreicherung und Nachnutzung der DHd-Abstracts im Zusammenspiel mit dem durch den DHd-Verband eingesetzten Data Steward verfolgt. Neben konkreten technischen Aufgaben (Publikationsprozesse, Normdaten-Annotation, Indexierung) werden im Austausch mit der Community inhaltliche Aspekte diskutiert und neue Impulse entwickelt. Neben der Diskussion möchte der Beitrag auch zur Mitarbeit im Rahmen der Task-Force ermutigen.



‚Arbeitskulturen‘ im Wandel - Erfahrungen und Entwicklungen in 20 Jahren DH-Praxis

Alexander Czmiel, Frederike Neuber

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

In seiner zwanzigjährigen Geschichte hat TELOTA (kurz für „The Electronic Life Of The Academy“), die DH-Abteilung der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW), mehrfach die eigenen Arbeitsstrukturen evaluiert und überarbeitet. Ausgehend von den Entwicklungen und den Herausforderungen der Projekt- und Personenkonstellationen wird der Vortrag eine seit etwa 2020 bei TELOTA etablierte Organisationsstruktur, die Team, Projekte und Forschungssoftwareentwicklung umfasst, vorstellen sowie Erfahrungen in der Umsetzung reflektieren.



Kontrastive Textanalyse mit pydistinto - Ein Python-Paket zur Nutzung unterschiedlicher Distinktivitätsmaße

Keli Du, Julia Dudar, Cora Rok, Christof Schöch

Universität Trier, Germany

In den Computational Literary Studies (CLS) werden statistische Distinktivitätsmaße eingesetzt, um Features zu bestimmen, die charakteristisch für eine Textgruppe im Vergleich mit einer anderen Textgruppe sind. Allerdings erweisen sich die meisten vorhandenen Tools als ungeeignet, wenn Nutzer:innen ihre Analysen anpassen und eigene Parametereinstellungen vornehmen oder bestimmte Datenformate nutzen wollen. Um den Einsatz relevanter Maße für die kontrastive Textanalyse zu erleichtern und das Bewusstsein für die Vielfalt der Maße zu schärfen, entwickeln wir ein Python-Paket mit dem Namen pydistinto. Mithilfe von pydistinto können Nutzer:innen auch mit geringen Programmier- und Statistikkenntnissen zwei Textkorpora mit unterschiedlichen Maßen miteinander vergleichen, und in einem fortgeschrittenen Modus auch die Eigenschaften und Leistungsfähigkeit der unterschiedlichen Maße empirisch ermitteln und gegenüberstellen. Durch Tabellen und Abbildungen werden in dem geplanten Poster vor allem die folgenden Aspekte unseres Pakets vorgestellt: die Möglichkeiten der Vorverarbeitung der Textdaten, die implementierten Distinktivitätsmaße und die Visualisierung der kontrastiven Analyseergebnisse.



Webservice correspSearch – Version 2

Stefan Dumont1, Sascha Grabsch1, Jonas Müller-Laackman2

1Berlin-Brandenburgische Akademie der Wissenschaften; 2Freie Universität Berlin

Der Webservice correspSearch (https://correspSearch.net) aggregiert Briefmetadaten aus gedruckten und digitalen Editionen und machte diese über eine Weboberfläche durchsuchbar. Die soeben veröffentlichte Version 2 des Webservices löst den bisherigen Prototypen ab und stellt zahlreiche neue Suchfunktionalitäten zur Verfügung.

Visualisierungen direkt im Suchinterface und eine umfangreiche Facettierung verbessern in der neuen Version sowohl den explorativen Zugang wie auch die gezielte Drill-Down Suche. Die neu entwickelte Anreicherung der normdatenbasierten Briefmetadaten aus Normdatenbanken erlauben (beispielsweise) die Suche anhand des Geschlechts der Korrespondent:innen. In Zukunft werden auch Suchen nach Briefen von bestimmten Berufsgruppen (Musiker:innen, Philolog:innen etc.) und die schlagwortbasierte Suche in Briefen ermöglicht.

Die Anreicherung der Briefmetadaten mit Geokoordinaten bildet die Grundlage für die neue Funktion der kartenbasierten Suche: hier kann auf einer Karte eine freie Region oder vordefinierte historische Staatsgebiete eingezeichnet werden, in der alle Orte als Schreib- oder Empfangsort enthalten sind. In Kombination mit Datumsangaben können damit ereignisbasierte Suchen realisiert werden.



Grenzüberschreitendes Textmining von Historischen Zeitungen: Das impresso-Projekt zwischen Text- und Bildverarbeitung, Design und Geschichtswissenschaft

Maud Ehrmann2, Estelle Bunout1, Simon Clematide3, Marten Düring1, Andreas Fickers1, Daniele Guido1, Roman Kalyakin1, Frederic Kaplan2, Matteo Romanello2, Paul Schroeder1, Philip Ströbel3, Thijs van Beek1, Martin Volk3, Lars Wieneke1

1Luxembourg Centre for Contemporary and Digital History (C2DH), Luxembourg; 2École polytechnique fédérale de Lausanne ‐ EPFL; 3University of Zurich

impresso. Media Monitoring of the Past ist ein interdisziplinäres Forschungsprojekt, in dem Wissenschaftler und Wissenschaftlerinnen aus der Computerlinguistik, Design und den Geschichtswissenschaften an der Anreicherung eines Korpus aus schweizerischen und luxemburgischen Zeitungen arbeiten. Ziel ist es, die Qualität von text mining Werkzeugen für historische Zeitungstexte zu verbessern, historische Zeitungen mit zusätzlichen Informationen anzureichern und diese mit Hilfe einer neu entwickelten Benutzeroberfläche in den historischen Forschungsprozess zu integrieren. In diesem Beitrag präsentieren wir unseren Ansatz, den damit verbundenen Herausforderungen mit Hilfe eines interdisziplinären Teams und eines Co-Design-Ansatzes gerecht zu werden. Wir geben dazu einen Überblick über die wesentlichen Schritte der Dokumenten- und Textverarbeitung und deren Repräsentation innerhalb der Benutzeroberfläche.



Brücken bauen für Buddha

Frederik Elwert, Jessie Pons

Ruhr-Universität Bochum, Germany

Das BMBF-geförderte eHeritage-Projekt Digitalisierung Gandharischer Artefakte (DiGA) digitalisiert knapp 2.000 Objekte buddhistischer Kunst aus der historischen Region Gandhāra, die derzeit in zwei Sammlungen in der pakistanischen Provinz Khyber Pakhtunkhwa aufbewahrt werden. Das Projekt macht dabei nicht nur die physisch schwer erreichbaren Skulpturen der Forschung zugänglich, sondern hat sich zum Ziel gesetzt, Brücken auf mehreren Ebenen zu bauen: Zwischen der traditionellen Forschung und den Digital Humanities, indem bestehende Praktiken und Referenzwerke der südasiatischen Kunstgeschichte und der Buddhologie mit Best Practices der digitalen Kulturerbeforschung verbunden werden. Zwischen den digitalisierten Sammlungen und anderen, bestehenden und zukünftigen Projekten, indem im Rahmen einer Arbeitsgruppe des Pelagios-Netzwerks gemeinsam Standards für die Erschließung und Verlinkung etabliert werden. Und zwischen Ländern und Kontinenten, indem der Dialog zwischen der europäischen Forschungslandschaft und den Kulturerbeeinrichtungen in Khyber Pakhtunkhwa intensiviert wird. Das Poster präsentiert die Ergebnisse der ersten Digitalisierungsphase sowie die im Projekt erstellen Thesauri und Gazetteers.



The Digitized minutes of the Habsburg Governments, 1848-1918

Wladimir Fischer-Nebmaier, Stephan Kurz, Richard Lein

Österreichische Akademie der Wissenschaften, Austria

The minutes of the Austrian government have been published and scholarly edited since the late 1960s. Now they are being retrodigitized. The Austrian minutes of 1867 onwards are a born digital project.

The web-app presents all minutes in one spot, including the retrodigitized Austro-Hungarian and the facsimile Hungarian minutes of 1867 onwards.

The born digital edition boasts structured XML-text according to TEI standards, including named entities and references to repositories containing facsimile legal texts, parliamentary proceedings, institutional catalogs, a geographically referenced database, a prosopographical and institutional database and a Zotero bibliography.



Fidus Writer als Alternative zum DH ConValidator? Ein Prototyp

Henning Gebhard

Universität Trier, Germany

XML-TEI hat sich als für die digitale Publikation und Langzeitarchivierung angemessenes Dateiformat etabliert und wird unter Anderem für den Einreichungsprozess der Abstracts für die Jahrestagungen des DHd-Verbands verwendet. Es ist jedoch für viele nicht das Format der Wahl beim Verfassen ihrer Texte. Die aktuelle Lösung – die Nutzung eines Online-Tools zur Umwandlung von Office-Dokumenten in XML-TEI – ist fehleranfällig und unbequem sowohl für die Einreichenden als auch für diejenigen, die das Book of Abtracts erstellen. Vor diesem Hintergrund wurde im Rahmen einer Masterarbeit der Prototyp einer möglichen Alternative entwickelt, aufbauend auf Fidus Writer, einem webbasierten WYSIWYG Editor mit starkem Fokus auf wissenschaftlichem Schreiben. Er erlaubt das kollaborative Verfassen von Texten, die Eingabe relevanter Metadaten und die Verwaltung der Literaturangaben. Für die Eignung für DH-Konferenzen wurde ein Exporter neu entwickelt, der FW Dokumente als TEI speichern kann. Für das Poster ist geplant, die Nutzung des Prototypen zu präsentieren.



DH2go - Lehr- und Lernumgebung für die Digital Humanities

Malte Heckelen, Claus-Michael Schlesinger, Fabienne Burkhard

Universität Stuttgart, Germany

Aus den Anforderungen unserer eigenen Lehre im Stuttgart Master Digital Humanities gewachsen, ist DH2go eine Lehr- und Lernumgebung für die praxisorientierte Lehre im Bereich DH.

DH2go bietet über die Remote-Desktop-Software X2Go einen GUI-basierten Zugriff auf einen Lehr- und Lernserver, der bereits alle der üblicherweise in der Lehre eingesetzten Tools, Sprachen und Daten beinhaltet. Neben diesen bieten wir nützliche Funktionen wie etwa Tauschordner für unsere Teilnehmer*innen. Da nur noch eine Software, X2Go, installiert werden muss, kann die Lehre gleich zu den Inhalten schreiten.

In unserer eigenen Lehre sowie Erfahrungen aus Workshops konnten wir feststellen, dass dieser Ansatz nicht nur Installationsprobleme behebt, sondern auch die technische Kommunikation von Teilnehmer*innen untereinander und mit Kursleiter*innen fördert.

Über mehrere Jahre der Nutzung und Weiterentwicklung haben wir DH2go auf bewährte Anwendungsfälle fokussiert und uns im Wintersemester 2021/2021 für eine Konsolidierung als selbst-implementierbares Konzept (dank Dokumentation) und als Service (auf Anfrage) entschieden.



Informationstechnologische Gedächtnisarbeit in der Rezensionszeitschrift RIDE

Ulrike Henny-Krahmer1, Frederike Neuber2, Martina Scholger3

1Universität Rostock, Germany; 2Berlin-Brandenburgische Akademie der Wissenschaften; 3Universität Graz

Seit 2014 gibt das Institut für Dokumentologie und Editorik (IDE) die digitale Rezensionszeitschrift RIDE (A Review Journal for Digital Editions and Resources) heraus. Mit derzeit (Stand Juli 2021) 70 Rezensionsartikeln zu digitalen wissenschaftlichen Editionen, Textsammlungen sowie Tools und Forschungsumgebungen ist es RIDE in den letzten sieben Jahren gelungen, Rezensionen verstärkt in den Digital Humanities zu verankern. Das Poster wird die technischen Grundlagen RIDEs illustrieren und damit einen Blick “hinter die Kulissen” gewähren. Neben einer Beschreibung des derzeitigen Workflows soll der Beitrag demonstrieren, dass die strukturelle und semantische Codierung der Inhalte sowie die Begleitung der Rezensionen durch Kriterien und Fragebögen dazu führen, dass RIDE neben dem Angebot von Texten auch vermehrt datengestützte Zugänge bietet. Die Arbeit an einem digitalen Rezensionsjournal wird so vermehrt zu informationstechnologischer Gedächtnisarbeit.



Linked Open Data für die Literaturgeschichtsschreibung: das Projekt "Mining and Modeling Text"

Maria Hinzmann, Christof Schöch, Katharina Dietz, Anne Klee, Katharina Erler-Fridgen, Julia Röttgermann, Moritz Steffes

Universität Trier, Germany

Im Umgang mit dem stetig wachsenden ‚digitalen Kulturerbe‘ bietet die Weiterentwicklung der systematischen Datenerschließung und Wissensrepräsentation bisher nicht ausgeschöpfte Potentiale für die Literaturgeschichtsschreibung. Vor diesem Hintergrund werden im Projekt "Mining and Modeling Text" (MiMoText) quantitative Methoden der Informationsextraktion (‚Mining‘) und Datenmodellierung (‚Modeling‘) ineinander verschränkt, um ein literaturgeschichtliches Informationssystem aufzubauen. Die Transferierbarkeit in andere Domänen wird berücksichtigt. Zentrales Anliegen ist es, den Bereich der quantitativen Methoden zur Extraktion, Modellierung und Analyse geisteswissenschaftlich relevanter Informationen aus umfangreichen Textsammlungen weiterzuentwickeln und aus interdisziplinärer (geistes-, informatik- und rechtswissenschaftlicher) Perspektive zu erforschen.



Mediatheken der Darstellenden Kunst digital vernetzen

Klaus Illmayer1, Sara Tiefenbacher2, Franziska Voß2, Julia Beck2, Christine Henninger3, Maxim Wittenbecher3

1Österreichische Akademie der Wissenschaften, Austria; 2Universitätsbibliothek Johann Christian Senckenberg; 3Internationales Theater Institut Deutschland, Berlin / Mediathek für Tanz und Theater

Im Poster wird das laufende Projekt "Mediatheken der Darstellenden Kunst digital vernetzen" vorgestellt, welches Metadaten zu audiovisuellen Aufzeichnungen von Tanz- und Theateraufführungen aus verschiedenen Institutionen zusammenführen und für Forscher*innen und Künstler*innen zur Verfügung stellen wird. Der Hintergrund und die Ziele des Projekts werden erklärt, sowie die technische Infrastruktur und die digitalen Verfahren, die angewandt werden.



Digitale Texte vom Religionsfrieden bis hin zum Liebesbrief - Das Zentrum für digitale Editionen in Darmstadt stellt sich vor

Silke Kalmer, Dario Kampkaspar, Sophie Müller, Melanie E.-H. Seltmann, Jörn Stegmeier, Kevin Wunsch

TU Darmstadt, Universitäts- und Landesbibliothek

Das Zentrum für digitale Editionen in Darmstadt (ZEiD) deckt alle Aspekte der Aufbereitung von Texten für wissenschaftliche Editionen und alle Bereiche digitaler Editionen von der Planung bis zur Veröffentlichung ab. Dabei bearbeitet es nicht nur bibliothekseigene Bestände, sondern fungiert auch als Partner für externe Projekte, etwa das Akademienprojekt „Europäische Religionsfrieden Digital“ oder auch das durch das BMBF-geförderte Projekt „Gruß & Kuss“.

In einem Workflow von der Texterfassung (OCR) der Digitalisate über das Erstellen und Bearbeiten der XML-Grundlage bis hin zur Realisierung der digitalen Edition als Online-Präsentation wird die wissenschaftliche Erfassung der Texte garantiert und Einheitlichkeit der Texte aus verschiedenen Projekten in der Infrastruktur des Zentrums gegeben. Das Poster geht auf diesen Workflow, das verwendete Framework sowie verschiedene vom ZEiD realisierte Projekte ein.



Beyond Budweiser: Creating a Digital Archive of Popular German-American Newspaper Literature

Jana Keck1, Andre Blessing2

1German Historical Institute Washington DC; 2Universität Stuttgart, Institut für Maschinelle Sprachverarbeitung

Who gets to be historicized by ways of (digital) record creation? Digitized C19 German-American newspapers in Chronicling America provide a fruitful platform both to (re-)evaluate stories about migrants that differ in gender, class, age, or (national) identities and to (re-)search how information spread across time and space. However, they offer no innovative methods to analyze the sheer bulk of heterogenous material. To foster further research in the field, we are creating an expanded version of Chronicling America’s German-American newspaper repository. In this digital archive, users will have the opportunity to access a novel dataset to study popular newspaper literature that will expand and diversify the canon and history of German-American culture. The dataset will consist of approximately 500,000 viral texts ranging from “factual texts” about tips on how to nurse children, “short stories” by unknown female writers, to nationalistic “poems” about Germania that were previously computationally classified into genres.



Ein Thesaurus für die digitale Edition der Ästhetikvorlesungen von Friedrich Schleiermacher

Holden Kelm, Lou Klappenbach

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

Die Ästhetikvorlesungen von Friedrich Schleiermacher (1768-1834) sind Bestandteil des ästhetischen Diskurses der klassischen deutschen Philosophie, sind aber als Bestandteil dieses Diskurses noch nicht hinreichend untersucht worden. Das sich diesem Desiderat widmende DFG-Projekt, das mit dem Akademienvorhaben „Schleiermacher in Berlin 1808-1834“ assoziiert ist, stellt die Frage, wie die Ästhetikvorlesungen aufgrund von digitalen Methoden erschlossen, wie sie in ihrem Verlauf untersucht und in ihrem philosophiehistorischen Kontext kritisch dargestellt werden können. Zur Bearbeitung dieser Forschungsfrage wurde beschlossen, die Annotation, Definition und Referenzierung von signifikanten Themen und Begriffen der Vorlesungen mit einem digitalen Thesaurus vorzunehmen. Die Vorlesungen werden für digitale und für Druck-Editionen mit ediarum, einem oXygen-Framework für den Author-Modus des oXygen XML-Editors erschlossen. Da semantische Modellierungsformen wie Thesauri bisher nicht in ediarum integriert sind, wird im Ästhetik-Projekt ein eigenes Framework entwickelt. Das geplante Poster illustriert diese für das Projekt zentrale digitale Methode: das von der Digital Humanities Arbeitsgruppe TELOTA entwickelte Tool ediarum.SKOS.



„Das Puzzle zusammensetzen“: Von analogen Dokumentensammlungen zu datenbankbasierten Biografien sowjetischer Kriegsgefangener des Zweiten Weltkriegs

Sebastian Kindler, Katrin Wolf

Deutsches Historisches Institut Moskau, Germany

Viele der Einzelschicksale der insgesamt mehr als fünf Millionen Personen, die im Zweiten Weltkriegs als Angehörige der Roten Armee in deutsche Kriegsgefangenschaft gerieten, sind bis heute unbekannt. Das DHI Moskau recherchiert innerhalb des deutsch-russischen Projekts „Sowjetische und deutsche Kriegsgefangene und Internierte“ Archivdokumente zu diesen Personen. Vorhandene Dokumente werden digitalisiert und die enthaltenen Angaben indexiert, um Digitalisate und Informationen gemeinsam als Gefangenenbiografien für Forschung und Schicksalsklärung verfügbar zu machen. Die Gefangenenbiografien bestehen aus allen kumulierten Informationen aus unterschiedlichen Dokumenten und Quellen, die zu einer bestimmten Person vorhanden sind und betreffen den gesamten Zeitraum von ihrer Gefangennahme, über Lageraufenthalte, Tod bzw. Befreiung sowie eine eventuell aufgrund der Gefangenschaft erlebte erneute staatliche Repression nach Rückkehr in die Sowjetunion. Ziel des Posters ist es, die unterschiedlichen Arbeitsabläufe und die häufig notwendigen Kompromisse im Sinne eines „best practise“-Modells bei der Gewinnung von großen Datenmengen und heterogenen Datentypen und deren abschließender Bearbeitung vorzustellen.



Volltexterkennung für historische Sammlungen mit OCR4all-libraries iterativ und partizipativ gestalten

Jan Sebastian Klaes1, Kristof Korwisi2, Katharina Krüger1, Christian Reul3, Nadine Towara1

1Georg Eckert Institute for International Textbook Research. Member of the Leibniz Association; 2University of Würzburg Human-Computer Interaction, Germany; 3University of Würzburg Centre for Philology and Digitality, Germany

Mit der Initiierung und Durchführung von Massendigitalisierungsprojekten haben Bibliotheken eine wesentliche Grundlage für den Zugang und die Nutzung digitaler Quellen geschaffen. Vor dem Hintergrund der Weiterentwicklung digitaler Forschungsmethoden u.a. im Bereich der Digital Humanities stellt sich nun zunehmend die Frage nach der Qualität insbesondere der Volltexte. Die Zusammenarbeit zwischen dem Georg-Eckert-Institut - Leibniz-Institut für internationale Schulbuchforschung (GEI), dem Zentrum für Philologie und Digitalität “Kallimachos” (ZPD) und dem Lehrstuhl für Mensch-Computer-Interaktion (HCI) der Universität Würzburg zielt darauf ab, das GUIbasierte Open-Source-Werkzeug OCR4all so zu erweitern und anzupassen, dass Bibliotheken und Archive bei ihrer Massendigitalisierung die im Rahmen des von der DFG geförderten OCR-D-Verbundprojekts erarbeiteten Lösungen niederschwellig, flexibel und eigenständig einsetzen können.

Forscher*innen als wichtige Zielgruppe von Forschungs- und Spezialbibliotheken profitieren mit der Weiterentwicklung von OCR4all von der Möglichkeit OCR-Prozesse iterativ und partizipativ mitgestalten zu können.



Text-Bild-Gefüge. Digital Humanities und der Diskurs der Moderne

Franziska Klemstein

Bauhaus-Universität Weimar, Germany

Ziel des auf dem Poster vorgestellten Projektes ist die Entwicklung einer virtuellen Forschungsumgebung, die eine enge Verzahnung von text- und bildzentrierten Themen, Methoden und Techniken erlaubt. Diese Forschungsumgebung wird den Zugriff auf einen digitalen Korpus von historischen Print-Quellen ermöglichen, die sowohl Texte als auch Bilder enthalten. In Kollaboration und unter Einsatz flexibler (lernfähiger) Informationsextraktionsverfahren sowie Text- und Bildanalysetechnologien wird dieser Korpus systematisch erschlossen. Die Entwicklung der Forschungsumgebung wird dabei zum Gegenstand und Bezugspunkt von historisch informierten und theoretisch reflektierten Überlegungen zum Verhältnis von Text und Bild und den interdisziplinären Potentialen der heutigen Geisteswissenschaften werden. Darüber hinaus wird sie den Impuls und die Grundlage dafür bilden, weitere digitale Korpora mit Blick auf Text-Bild-Gefüge systematisch zu erschließen und auszuwerten.

Der Posterbeitrag soll Einblicke in den gegenwärtigen Stand des Projektes geben sowie erste Analysergebnisse aufzeigen.



Zeitgeschichte untersuchen: Topic Modeling von #blackouttuesday-Inhalten auf Instagram

Aenne Knierim, Michael Achmann, Christian Wolff

Universität Regensburg, Germany

Das Forschungsprojekt dient der Untersuchung des New Social Movements Black Lives Matter und spezifisch den Solidaritätsbezeugungen am #blackouttuesday als Reaktion auf die Ermordung George Floyds. Um Sujets und Themen der Instagram-Nutzer*Innen rundum #blackouttuesday zu identifizieren und deren quantitative Analyse zu ermöglichen, wird ein Korpus aus den Bildunterschriften von Posts mit dem #blackouttuesday vom 02.06.2020 erstellt. Unter Anwendung des Latent Dirichlet Allocation Algorithmus sollen Topics gefunden werden. So kann der Diskurs über racial justice mit der quantitativen Methode des Topic Modeling untersucht werden. Das Forschungsprojekt kann in den Bereich der digitalen Kulturwissenschaft eingeordnet werden.



Corpus Nummorum - eine digitale Forschungsinfrastruktur für antike Münzen

Jan Köster, Claus Franke, Ulrike Peter

Berlin-Brandenburg. Akademie der Wissenschaften, Germany

Das an der BBAW beheimatete Drittmittelprojekt Corpus Nummorum hat die Erschließung, Typologisierung und Webpublikation antiker griechischer Münzen unter Verwendung numismatischer Normdaten sowie Verfahren wie Natural Language Processing und Bilderkennung zum Ziel. Im Rahmen des Projekts entstand zudem das Open-Source-Tool CN Editor, eine Web-App, die den Dateneingabe-Workflow des Projekts vollständig händeln kann und umfangreiche Funktionen zur Suche und Optimierung bereitstellt. Das Corpus Nummorum pflegt eine enge Zusammenarbeit mit diversen internationalen Partnern sowie der numismatischen Community. Es bildet einen wichtigen Teil der digitalen Forschungsinfrastruktur zur Erforschung und Kuratierung des kulturellen Erbes der Menschheit.



Who CAREs, really?

Felix Lange, Heinz-Günter Kuper, Anja Müller, Kilian Amrhein, Marco Klindt, Anna-Lena Nowicki

Zuse-Institut Berlin, Germany

Spätestens seit dem „Rapport sur la restitution du patrimoine culturel africain. Vers une nouvelle éthique relationnelle“ von Sarr und Savoy (2018) ist die Diskussion über den Umgang europäischer Gedächtnisinstitutionen mit ihren Sammlungen aus kolonialen Kontexten neu entbrannt. Welche Bedeutung hat in diesem Zusammenhang die Digitalisierung von Objekten des kulturellen Erbes? Das Poster veranschaulicht diese Frage am Beispiel der "Ethnografica"-Sammlung im Nachlass von Karl Schmidt-Rottluff aus dem Bestand des Brücke-Museums Berlin. Diese Sammlung wird im Rahmen eines Digitalisierungs-Projekts durch das Forschungs- und Kompetenzzentrum Digitalisierung Berlin (digiS) begleitet. Um verschiedene Perspektiven auf digitale Objekte gleichberechtigt sichtbar zu machen und dabei die CARE-Regeln nicht zu missachten, untersucht digiS verschiedene technologische Ebenen.



Entdeckung der Korrespondenz Alexander von Humboldts durch Such- und Visualisierungsfunktionen

Axelle Lecroq

BBAW, Germany

Die Korrespondenz des Naturforschers und Reisenden Alexander von Humboldt umfasst schätzungsweise mehrere zehntausend Briefe und ist einer der profiliertesten Briefpartner seiner Zeit. In diesem Poster wird die erste Phase des experimentellen Projekts vorgestellt, die darin besteht, Jupyter Notebooks zu verwenden. DieSuchfunktionen und Visualisierungen ermöglichen dem Benutzer auf die Daten und das Archivdokument zuzugreifen und die Korrespondenz des Wissenschaftlers besser zu verstehen.



Leben, Werke und Datensilos. Zur Verknüpfung und Visualisierung von im/materiellen Komponenten des kulturellen Erbes

Eva Mayr, Johannes Liem, Nicole High-Steskal, Anja Grebe, Florian Windhager

Universität für Weiterbildung Krems, Austria

Obwohl die Aggregation von Kulturdaten in Europa mit der Plattform Europeana bereits Tradition hat, wurden und werden viele Aspekte von immateriellen Kulturdaten bislang isoliert digitalisiert und akkumuliert. Um ein besseres Bild von der Reichhaltigkeit und den kontextuellen Einbettungen des kulturellen Erbes zu vermitteln, bedarf es der Verbindung von materiellen Objektsammlungen mit assoziierten immateriellen Narrativen und Geschichten. Das H2020-Projekt InTaVia führt mit dieser Zielsetzung materielles und immaterielles Kulturerbe digital zusammen und entwickelt visuelle Perspektiven für die synoptische Analyse und Kommunikation von Leben und Werken der europäischen Kulturgeschichte. Dazu wurden in zwei Wokshops Forscher*innen und Expert*innen aus Kulturerbeeinrichtungen nach ihren Praktiken, Bedürfnissen und Anforderungen befragt. Die Ergebnisse dokumentieren Anforderungen für DH-Anwendungen im Bereich des kulturellen Erbes, sowie für Projekte im expandierenden Feld von verlinkten und offenen Daten.



Analyse der Rezeption von Telenovelas und Serien über lateinamerikanische Geschichte durch Algorithmen

Holle Ameriga Meding, Mónika Contreras Saiz, Hannah Muessemann

Freie Universität Berlin, Germany

Das vom BMBF geförderte Forschungsprojekt GUMELAB - unter der Leitung von Prof. Dr. Stefan Rinke und Dr. Mónika Contreras Saiz - untersucht die Konstruktion, Vermittlung und trans-/nationale Rezeption lateinamerikanischer Geschichte und Erinnerung anhand von Telenovelas und Serien sowie deren Auswirkungen auf die politische Einstellung und das Geschichtsbewusstsein der Zuschauer:innen.

Die Anwendung digitaler Methoden zur Erfassung und Auswertung von Quellenmaterial und Daten aus sozialen Medien spielt dabei eine zentrale Rolle, allen voran die Entwicklung von Algorithmen zur Erfassung der vermittelten Erinnerungsbilder. Diese bilden später die methodische Grundlage für die Etablierung des Labors für Erinnerungsforschung und digitale Methoden an der Freien Universität Berlin, welches als Raum für interdisziplinäres Experimentieren bei der Entwicklung digitaler Methoden für die sozial- und geisteswissenschaftliche Forschung dienen wird.



Aktualität und Gedächtnis. Zur korpusanalytischen Untersuchung von Gegenwartsliteratur auf Twitter

Simon Meier-Vieracker1, Elias Kreuzmair2

1TU Dresden, Germany; 2Universität Greifswald, Germany

Twitter gilt als besonders präsentisches Medium, das in besonderer Weise zu gegenwartsbezogenem Schreiben einlädt. Zugleich machen die medialen Affordanzen der Persistenz und der Durchsuchbarkeit die Plattform zu einem umfassenden Archiv und Medium des digitalen Gedächtnisses. Dieses Spannungsverhältnis von gegenwartsbezogenem Schreiben und digitalem Archiv wird auch im gegenwartsliterarischen Diskurs auf Twitter immer wieder thematisch.

Zur korpuslinguistischen Analyse von Gegenwartsliteratur und ihrer Selbstreflexion auf Twitter wurde für das DFG-Projekt "Schreibweisen der Gegenwart" ein gut 3,5 Mio. Wörter großes Twitterkorpus erstellt, das über die Tweettexte hinaus auch umfangreiche Metadaten einschießlich interaktiver Aspekte wie Reply-Strukturen umfasst. Damit ist das Korpus eine Fixierung eines eigentlich fluiden Diskurses. Auf dem Poster werden wir unsere Pipeline für die Korpuserstellung und unser Datenmodell vorstellen und anhand exemplarischer Analyseergebnisse zu Zeitreflexionen auf Twitter die methodologischen Schwierigkeiten diskutieren, die sich aus der Fixierung eines fluiden Medienformates ergeben.



GitMA-Poster: CATMA-Daten via Git abrufen und mittels Python-Bibliothek weiterverarbeiten

Malte Meister, Michael Vauth, Dominik Gerstorfer

Technische Universität Darmstadt, Germany

Seit CATMA Version 6.0 kann auf Projektdaten in Form von Git Repositorien zugegriffen werden. Im Fachbereich für Digital Philology an der TU Darmstadt ist außerdem eine Python-Bibliothek entstanden, die einen einfachen Zugriff auf diese zulässt. Die Bilbiothek ermöglicht die Weiterverarbeitung der Annotationen mit gängigen Python Datascience-Tools. Das Poster wird eine Art Bedienungsanleitung für die Nutzung des CATMA Git Access und der Python-Bibliothek sein.



FDM-Awareness in Zeiten von Corona: Sammelkarten zum Forschungsdatenmanagement „Daten & Datteln digital“

Elisabeth Mollenhauer, Felix Rau

Universität zu Köln, Germany

Im Rahmen seiner Öffentlichkeitsarbeit hat das Data Center for the Humanities (DCH) an der Universität zu Köln den Auftrag, Wissenschaftler:innen über Aspekte des Umgangs mit Forschungsdaten und des Forschungsdatenmanagements (FDM) zu informieren. Mit Beginn der Corona-Pandemie 2020 mussten neben Sprechstunde und Lehre in Präsenz auch die als Awareness-Initiative geplanten Kurzvorträge zu einzelnen FDM-Aspekten „Daten & Datteln“ ausfallen. Stattdessen wurden die Inhalte in ein digitales Vermittlungsformat transferiert und als kompakte Sammelkarten an die Mitglieder der Philosophischen Fakultät und die interessierte Öffentlichkeit (via Twitter) kommuniziert. Das Poster dokumentiert und reflektiert, wie die Kommunikationsstrategie des DCH an die Pandemiebedingungen angepasst worden ist, um weiterhin sichtbar zu sein und FDM-Aspekte niederschwellig vermitteln zu können, und welche Mehrwerte und Möglichkeiten der Nachnutzung dabei entstanden sind.



Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses: Ein DFG-Projekt in der Rückschau.

Melissa Müller

Universität Hamburg, Germany

Das Poster zeigt anhand eines mit literaturwissenschaftlichen und linguistischen Annotationen versehenen Korpus, das alle Dramen von Andreas Gryphius (1616-1664) enthält, die Möglichkeiten und Grenzen eines digitalen barocken Gedächtnisses auf. Es wird auch dargestellt, wie diese Form der Datenaufbereitung Einfluss auf das kulturelle Gedächtnis bzw. dessen Beschaffenheit hat.



Das zoroastrische Mittelpersische - digitales Corpus und Wörterbuch (MPCD)

Claes Neuefeind1, Francisco Mondaca1, Øyvind Eide1, Iris Colditz2, Thomas Jügel2, Kianoosh Rezania2, Arash Zeini3, Alberto Cantera3, Chagai Emanuel4, Shaul Shaked4

1Universität zu Köln; 2Ruhr-Universität Bochum; 3Freie Universität Berlin; 4Hebrew University Jerusalem

Mit diesem Beitrag möchten wir das Projekt “Das zoroastrische Mittelpersische - digitales Corpus und Wörterbuch (Middle Persian Corpus and Dictionary, MPCD)” vorstellen, das im April 2021 seine Arbeit aufgenommen hat. Das MPCD-Projekt wird von der DFG als Langfristvorhaben gefördert, mit einer geplanten Laufzeit von insgesamt neun Jahren. Das Vorhaben wird als Kooperationsprojekt der Universitäten Bochum, Berlin, Köln und Jerusalem durchgeführt. Während an den Standorten Bochum, Berlin und Jerusalem der Schwerpunkt auf der philologischen Erschließung des Korpus sowie des darauf aufbauenden Wörterbuchs liegt, ist auf Kölner Seite das Cologne Center for eHumanities (CCeH) für die technische Umsetzung einer kollaborativen Recherche- und Arbeitsumgebung zuständig, deren technischen Entwurf wir in diesem Beitrag thematisieren und zur Diskussion stellen wollen. Dies umfasst neben Aspekten der Datenmodellierung insbesondere die Systemarchitektur und die eingesetzten Technologien.



DiaCollo für GEI-Digital. Ein experimentelles Projekt zur weiteren Erschließung digitalisierter historischer Schulbuchbestände

Maret Nieländer1, Bryan Jurish2, Christian Scheel1

1Georg-Eckert-Institut - Leibniz-Institut für internationale Schulbuchforschung, Germany; 2Berlin-Brandenburgische Akademie der Wissenschaften

„DiaCollo für GEI-Digital“ ist ein experimentelles Projekt zur Erschließung digitalisierter und mit OCR behandelter historischer deutschsprachiger Schulbuchbestände für die Nutzung mit computerlinguistischen Werkzeugen und Methoden wie der diachronen Kollokationsanalyse mit „DiaCollo“. Das Poster beschreibt a) die Korpuserstellung mit mehr als 5000 Werken der digitalen Schulbuchbibliothek „GEI-Digital“ des Georg-Eckert-Institut – Leibniz-Institut für internationale Schulbuchforschung, b) die Zurverfügungstellung der aufbereiteten Daten mit der D* Korpusmanagement-Umgebung des Zentrums Sprache an der Berlin-Brandenburgischen Akademie der Wissenschaften, c) die Bemühungen um die Usability für Nutzer:innen aus anderen Fachdisziplinen mittels eines ausführlichen Tutorials sowie d) einige Befunde bezüglich der Passung der Werkzeuge und dieses Korpus‘, das sich von anderen an der BBAW verfügbaren diachronen Korpora in Bezug auf die OCR-Qualität und Charakteristika von Genre und Sammlungskonzept unterscheidet. Ein Ausblick schildert geplante weitere Arbeiten.



Das DFG Schwerpunktprogramm Computational Literary Studies

Steffen Pielström1, Kerstin Jung2

1Julius-Maximilians-Universität Würzburg, Germany; 2Universität Stuttgart, Germany

Die Computational Literary Studies (CLS) sind ein interdisziplinäres Forschungsfeld in dem computergestützte Verfahren zur Analyse literaturwissenschaftlicher Fragestellungen zum Einsatz kommen. Insgesamt elf Einzelprojekte, die zur Zeit in diesem Emerging Field arbeiten, gehören dem seit 2020 aktiven Schwerpunktprogramm SPP 2207 "Computational Literary Studies" an. In den einzelnen Projekten kooperieren erfahrene Digital Humanists mit Literaturwissenschaftler*innen, um an aktuellen Fragen der Literaturwissenschaft zu arbeiten. Die Forschung im SPP 2207 deckt ein breites Spektrum der deutschsprachigen Literatur ab. Hinzu kommen methodologische Untersuchungen die zum Ziel haben, das methodische Repertoire der CLS für die spezifischen Anforderungen des Faches zu validieren und weiter zu entwickeln. Angesichts der Vernetzung und Verankerung nahezu aller Programmbeteiligten in der Fachcommunity sieht sich SPP 2207 als Multiplikator für diese gesamte CLS-Community. Mit dem vorliegenden Poster stellt SPP 2207 die beteiligten Forschungsprojekte und projektübergreifenden Arbeitsgruppen vor und informiert über anstehende Events.



Anpassungen von LERA zum Vergleich hebräischer Textzeugen des kabbalistischen Traktats Keter Shem Ṭov

Marcus Pöckelmann, Bill Rebiger

Martin-Luther-Universität Halle-Wittenberg, Germany

LERA ist ein an der Martin-Luther-Universität Halle-Wittenberg entwickeltes interaktives webbasiertes Kollationierungswerkzeug zum automatischen Vergleich von unterschiedlichen Versionen eines Textes, sei es schriftliche Überlieferungen eines (ggf. verloren gegangenen) Manuskripts oder Editionen eines Buches. Ursprünglich entwickelt wurde LERA in den Jahren 2012-2016 zum Vergleich von unterschiedlichen Druckauflagen eines Werkes der französischen Aufklärung (Bremer et al., 2015). Das Werkzeug wurde bzw. wird seitdem in mehreren, auch größeren englisch-, deutsch-, slowenisch- und arabisch-sprachigen Editionsprojekten eingesetzt. Im Rahmen der durch die DFG geförderten Erstellung einer Edition zum aus dem 13. Jahrhundert stammenden kabbalistischen Traktat Keter Shem Ṭov (Molitor et al. 2020) wurde LERA für den Vergleich hebräischer Texte erweitert. Der vorliegende Beitrag geht auf diese Erweiterungen ein und fasst die damit erzielten judaistischen Ergebnisse zusammen.



Mein liebster Schatz! Das Citizen Science-Projekt Gruß & Kuss stellt sich vor

Andrea Rapp1, Stefan Büdenbender2, Nadine Dietz1, Lena Dunkelmann3, Birte Gnau-Franké3, Nina Liesenfeld3, Stefan Schmunk2, Melanie E.-H. Seltmann4, Thomas Stäcker4, Stephanie Werner2, Eva L. Wyss3

1TU Darmstadt; 2Hochschule Darmstadt; 3Universität Koblenz; 4TU Darmstadt, Universitäts- und Landesbibliothek

Gruß & Kuss – Briefe digital. Bürger*innen erhalten Liebesbriefe ist ein innovatives Verbund- sowie Citizen-Science-Projekt, das vom BMBF für den Zeitraum von drei Jahren gefördert wird. Es bindet aktiv Bürger*innen in die Digitalisierung und Erforschung von aktuell über 22.000 deutschsprachigen Liebesbriefen ein. Grundlage des Projekts sind die seit 1997 im Liebesbriefarchiv erst in Zürich, seit 2013 in Koblenz zusammengetragenen Spenden authentischer privater Liebesbriefe von Bürger*innen aus insgesamt drei Jahrhunderten, aus 52 Ländern und in sich wandelnden medialen Formaten.

Im Rahmen des Projekts werden Bürgerforscher*innen von Wissenschaftler*innen methodisch begleitet, unterschiedliche, auch digitale text- und sprachbasierte Untersuchungs- sowie Analysepraktiken durch verschiedene Partizipationsmöglichkeiten durchzuführen. Für die Nachhaltigkeit werden zum einen digitale Werkzeuge erarbeitet, die zur Nachnutzung auch für andere Projekte unterschiedlichster Disziplinen zur Verfügung stehen. Zum anderen wird die so entstehende Edition datenschutzkonform langzeitarchiviert und damit ein Kulturgut gesichert werden, für das bisher kein Sammlungsauftrag besteht.



Muster von “you” und “thou”: Modellierung der Anrede im englischen Sonett

Brigitte Rath

Universität Innsbruck, Austria

Ausgangspunkt dieses Projekts ist die bekannte Beobachtung, dass “thou”, eines der beiden Personalpronomen der 2. Person Singular im Englischen, im Lauf des 17. Jahrhunderts zugunsten von “you” aus der Alltags- und Prosasprache verschwindet. Dennoch wird “thou” in der Lyrik noch zwei Jahrhunderte lang prominent weiterverwendet. Dieses Projekt leistet einen ersten Schritt zur bisher noch nicht untersuchten Frage danach, mit welchen Konnotationen die beiden Pronomen nach dem Sprachwandel in der Lyrik verwendet werden. Mit Daten aus einem selbsterstellten Korpus von über 1300 englischsprachigen Sonetten werden Machine Learning Prediction Modelle trainiert und ihre Vorhersagegenauigkeit gemessen. Es zeigt sich, dass "you" und "thou" entgegen anderslautender Behauptungen in zahlreichen Gedichtkommentaren nicht synonym verwendet werden und die Kategorie der Angesprochenen wohl eine wichtige Rolle bei der Wahl des Pronomens spielt.



Der Dienstekatalog der AG Datenzentren – ein digitales Verzeichnis für Forschungsdatenmanagement-Services in den Geisteswissenschaften

Felix Rau, Patrick Helling

Data Center for the Humanities (DCH), Universität zu Köln, Deutschland

Die langfristige Sicherung, Verfügbarkeit und Nachnutzbarkeit von Forschungsdaten im Sinne der FAIR-Prinzipien ist ein wesentlicher Bestandteil guter wissenschaftlicher Praxis und nicht erst seit den Bestrebungen hin zu einer Nationalen Forschungsdateninfrastruktur (NFDI) ein wichtiger Motor wissenschaftlichen Fortschritts. Die Bedienung fachspezifischer Forschungsdatenmanagement-Bedarfe (FDM) in den Geisteswissenschaften übernehmen u.a. die Mitgliedsinstitutionen der DHd-AG Datenzentren. Die Arbeitsgruppe besteht aus insgesamt 28 Datenzentren und Interessensvertreter*innen, von denen 16 Einrichtungen über FDM-Servicestrukturen verfügen. Sie ergänzen das Forschungsdatenmanagement an ihren Standorten und darüber hinaus um ein geisteswissenschaftliches Profil und erarbeiten passgenaue Lösungsstrategien für die heterogene Forschungs- und Datenlandschaft der Geisteswissenschaften. Um die Sichtbarkeit und Erreichbarkeit einzelner AG-Datenzentren und ihrer FDM-Services zu verbessern, hat die Arbeitsgruppe einen gemeinsamen Dienstekatalog entwickelt, der als durchsuchbare Website verfügbar gemacht wurde und mit dieser Postereinreichung vorgestellt werden soll.



Towards a Computational Study of German Book Reviews. A Comparison between Emotion Dictionaries and Transfer Learning in Sentiment Analysis

Simone Rebora1, Thomas C. Messerli2, J. Berenike Herrmann1

1University of Bielefeld, Germany; 2University of Basel, Switzerland

This poster reports on the groundwork for the computational study of evaluative practices in German language book reviews. We trained classifiers for evaluation and sentiment at sentence level on the LOBO corpus, comprising ~1.3 million book reviews downloaded from the social reading platform LovelyBooks.

For the two classification tasks, we compared performance of dictionary-based and transfer-learning (TL) based sentiment analysis (SA). Our results highlight the higher efficiency of TL-methods and of dictionaries based on vector space models (like SentiArt and AffectiveNorms). They show that computational methods can reliably identify sentiment of book reviews in German.



Beyond the render silo: semantically annotating 3D data within an integrated knowledge graph and 3D-rendering toolchain

Lozana Rossenova1, Zoe Schubert2, Richard Vock3, Ina Blümel4

1TIB – Leibniz Information Centre for Science and Technology; 2SPK – Stiftung Preussischer Kulturbesitz; 3Bonn University; 4TIB – Leibniz Information Centre for Science and Technology, Hannover University of Applied Sciences and Arts

As a result of mass-digitisation efforts, cultural heritage and research institutions have had to adapt their practices to account for shifts in what cultural stewardship and the study of cultural memory entails. Representations of cultural assets in the form of 3D models within disciplines such as architecture, art, archaeology, and 3D reconstruction are particularly heterogeneous in formats and structure, ergo standardized access and visualisation tools face new challenges. Furthermore, cultural memory preservation requires the active participation of diverse audiences who can easily access, search and enrich datasets through annotations and critical interpretations. This poster presents the development of a suite of tools as part of the NFDI4Culture project focusing on such enrichment. The toolchain facilitates the annotation of 3D data within a knowledge graph (Wikibase) and a sophisticated rendering environment (Kompakkt), so that 3D objects’ geometry, attendant metadata and annotations are accessible and searchable as part of the semantic web.



Das optimale Datenmodell: eine Spurensuche im Möglichkeitsfeld der Kodierung

Sanja Saric1,2, Elisabeth Steiner1, Maximilian Vogeltanz2

1Institut Zentrum für Informationsmodellierung - Austrian Centre for Digital Humanities, Universität Graz, Österreich; 2Institut für Sprachwissenschaft, Universität Graz, Österreich

Zu Beginn jedes neuen Projektes in den Digitalen Geisteswissenschaften steht die Frage nach der adäquaten Modellierung der Forschungsdaten. Während im Förderantrag häufig bereits die Nennung vom XML/TEI für Textquellen ausreichend ist, stellt sich das Unterfangen zu Beginn der praktischen Arbeit meist komplizierter dar: Schon die TEI (TEI Consortium 2021) alleine bietet zahlreiche Möglichkeiten ähnliche Sachverhalte zu modellieren und die gewählte Strategie muss dabei jeweils auf das Material, die Forschungsfrage und in weiterer Folge die Archivierung und Weiterverwendung der Daten Rücksicht nehmen. Der hier vorliegende Beitrag stellt die Herausforderungen und Lösungsansätze anhand der Briefkorrespondenz von Hugo Schuchardt vor.



Szenario-basierte Planung eines semantischen Digitalisierungsvorhabens in der digitalen Geschichtswissenschaft

Werner Scheltjens1, Christoph Schlieder2

1Digitale Geschichtswissenschaften, Otto-Friedrich-Universität Bamberg, Germany; 2Kulturinformatik, Otto-Friedrich-Universität Bamberg, Germany

Die Retrodigitalisierung von nicht urheberrechtlich geschützten Bibliothekssammlungen hat der historischen Forschung eine Fülle gedruckter Texte als digitale Quellen zugänglich gemacht. Dabei stoßen HistorikerInnen relativ schnell an die Grenzen der Auswertungsmöglichkeiten vorliegender Digitalisate, die als Ergebnis der „ersten Digitalisierung“ typischerweise einen Scan, einen Volltext und Metadaten zusammenfassen. Anhand eines Nachschlagewerkes des 19. Jahrhunderts über Maß- und Gewichtssysteme führt dieser Beitrag vor, welchen Mehrwert eine zweite oder semantische Retrodigitalisierung für die historisch-metrologische Forschung bietet. Die „zweite Digitalisierung“ strebt die Extraktion und Modellierung der semantischen Struktur des enzyklopädischen Wissens an. Der Beitrag entwickelt ein szenario-basiertes Vorgehen für die Planung der semantischen Modellierung digitalisierter historischer Quellen, das einen von Lodi et al. (2017) vorgeschlagenen Planungsansatz erweitert und konkretisiert. Insbesondere wird gezeigt, wie anhand von Kompetenzfragen beurteilt werden kann, welche semantischen Beziehungen explizit zu repräsentieren sind und welche durch Anfragen abgeleitet werden sollen.



Datenschutz in der wissenschaftlichen Praxis: Der DARIAH-EU ELDAH Consent Form Wizard

Walter Scholger1,5,6, Vanessa Hannesschläger2,5,6, Pawel Kamocki3,5,6, Koraljka Kuzman-Šlogar4,5

1Universität Graz; 2Österreichische Akademie der Wissenschaften (ÖAW); 3Institut für Deutsche Sprache (IDS); 4Universität Zagreb; 5DARIAH-EU WG Ethics and Legality in Digital Arts and Humanities (ELDAH); 6CLARIN-ERIC Legal and Ethical Issues Committee (CLIC)

Im Bereich der Digital Humanities (DH) gilt der offene Zugang zu Wissen und den Ergebnissen wissenschaftlicher Forschung als Selbstverständlichkeit und aufgrund der Vorgaben nationaler und europäischer Förderprogramme geradezu als Notwendigkeit. Andererseits sind Vertraulichkeit und Datenschutz ethische Grundanforderungen für die Verarbeitung personenbezogener (Forschungs-)Daten.

Der Consent Form Wizard wurde von der DARIAH-EU Arbeitsgruppe ELDAH in Kooperation von Jurist*innen, Entwickler*innen und Wissenschaftler*innen entwickelt.

Dieses frei online verfügbare Werkzeug generiert standardisierte und DS-GVO-konforme Einwilligungserklärungen für Studienteilnehmer*innen, Benutzer*innen, Veranstaltungs- oder Umfrageteilnehmer*innen etc. im Kontext wissenschaftlicher Datenerhebungen und -verarbeitungen.

Die zum gegenwärtigen Zeitpunkt umgesetzten Anwendungsszenarien des Consent Form Wizards reichen, basierend auf den Befragungen von TeilnehmerInnen mehrerer internationaler DH-Veranstaltungen und themenspezifischer Workshops, von Zustimmungserklärungen für die Datenverarbeitung bei der Veranstaltungsorganisation, über Ton- und Videoaufzeichnungen, Mailinglisten und Newsletter bis hin zur Verarbeitung personenbezogener Daten im Rahmen von Umfragen und Interviews in der Forschungspraxis.



Datenbiographik im Literaturarchiv. Konzept und Umsetzung digitaler Dienste am Theodor-Fontane-Archiv

Sabine Seifert, Anna Busch, Peer Trilcke, Kristina Genzel, Juliane Heilmann, Klaus-Peter Möller

Theodor-Fontane-Archiv, Universität Potsdam

Das Theodor-Fontane-Archiv hat umfassende bio- und bibliographische Datenbestände zu Fontane in Form offener Kulturdaten webbasiert und kostenfrei verfügbar gemacht. Die “Fontane Bibliographie online” enthält bibliographische Metadatensätze zu Primär- und Sekundärliteratur und die “Fontane Briefdatenbank” verzeichnet brieftypische Metadaten zu sämtlichen bekannten Briefen von Fontane. Ergänzt um die Daten der Biographischen Datenbank und angereichert mit Norm- und Registerdaten fließen die Einzeldatenbestände, für die individuelle Dienste mit eigenen Interfaces entwickelt wurden, in den übergreifenden Dienst “Fontane Chronik digital” ein. Dieser datenbiographische Meta-Dienst weist jeden Datensatz einem übergeordneten Tages-, Monats- oder Jahresdatensatz zu. Das chronikale Prinzip in Form einer Datenbiographik wird im Frontend mittels eines Kalender-Interfaces ausgegeben, das unterschiedliche Zugangsszenarien und Darstellungsformen berücksichtigt. Während die Qualitätssteigerung der Daten (Normdaten, LOD, Zugriff via APIs) im Vordergrund zukünftiger Entwicklungsarbeiten steht, bilden diese ebenfalls einen Beitrag zur Neujustierung des Verhältnisses von Archiv und Biographik im Zeichen der digitalen Transformation.



Repositorien als digitale Gedächtnisträger zwischen Evolution und Langzeitplanung

Elisabeth Steiner, Gunter Vasold, Martina Scholger

Karl-Franzens-Universität Graz, Austria

Seit beinahe 20 Jahren verwaltet und publiziert das Repositorium GAMS Forschungsdaten aus den Geisteswissenschaften und dem Kulturerbebereich. Derzeit enthält das Langzeitarchiv etwa 115.000 annotierte digitale Objekte aus mehr als 60 Projekten. Dies reicht von digitalen Editionen oder Textsammlungen (z.B. Briefe, mittelalterliche Rechnungsbücher) über Bildsammlungen (z.B. historische Fotografien und Postkarten) bis hin zu digitalisierten musealen Sammlungen (z.B. archäologische Artefakte oder andere Museumsobjekte) (GAMS 2021). Dabei liegt das Augenmerk sowohl auf der langfristigen Sicherung und Zugänglichmachung von Ressourcen wie auch auf dem nachhaltigen Umgang mit den bearbeiteten Forschungsdaten.

Domänenspezifische Repositorien müssen dabei einen Ausgleich zwischen langzeittauglicher und somit eher konservativer Entwicklung und dem Einsatz aktueller Technologien finden. Das Poster wird den konzeptionellen Rahmen dieser Forschungsdateninfrastruktur vorstellen und Lösungsansätze aus diesem Widerspruch diskutieren, die besonders auf die Migration der Kernkomponenten fokussieren.



Semantische Suche mit Word Embeddings für ein mehrsprachiges Wörterbuchportal

Ngoc Duyen Tanja Tu, Peter Meyer

Leibniz-Institut für Deutsche Sprache, Germany

Das Poster präsentiert eine semantische Suchfunktion, basierend auf Word Embeddings, für das Lehnwortportal Deutsch (LWPD), ein Online-Informationssystem zu lexikalischen Entlehnungen aus dem Deutschen in andere Sprachen.

Der onomasiologische Zugriff auf die lexikalischen Einheiten des Portals ermöglicht es Forschungsfragen, wie z.B. zur Wahrscheinlichkeit der Entlehnung von lexikalischen Einheiten mit einer bestimmten Bedeutung (Haspelmath/Tadmor, 2009; Zeller, 2015) zu beantworten.

Die Suchtechnologie basiert auf multilingualen vortrainierten Word Embeddings: Bedeutungen von Wörtern aus dem Portal werden Vektoren zugeordnet. Die Benutzer:innen können ein oder mehrere Suchbegriff(e) aus einer großen Anzahl wählen, die Datenbank liefert dann lexikalische Einheiten aus dem LWPD, deren Vektor ähnlich zu dem des Suchbegriffs bzw. der Suchbegriffe ist.

Wir zeigen die Vorteile dieses Ansatzes im Vergleich zu Suchfunktionen auf, die auf semantischen Feldern basieren. Außerdem geben wir eine vorläufige Evaluation der Qualität der Suchergebnisse.



Reflexive Passagen und ihre Attribution

Hanna Varachkina, Florian Barth, Luisa Gödeke, Anna Mareike Hofmann, Tillmann Dönicke

Georg-August-Universität Göttingen, Deutschland

Das Projekt MONA beschäftigt sich mit reflexiven Passagen und ihrer Attribution. Der Begriff reflexive Passagen ist ein Oberbegriff für drei Phänomene: Generalisierung, literarischer Kommentar und nicht-fiktionale Rede. Reflexive Passagen können dem/der AutorIn, einer Erzähinstanz und/oder einer Figur zugeschrieben werden. Wir annotieren die mit reflexiven Passagen assoziierten Phänomene in deutschsprachigen fiktionalen Erzähltexten von 1650–1950 und veröffentlichen sie im Korpus MONACO. Auf der Grundlage der entstehenden Daten werden regelbasierte, statistische und neuronale Modelle zur Erkennung und Klassifikation von Generalisierung, Kommentar, nicht-fiktionaler Rede und ihrer Attribution entwickelt. Sobald ausreichend annotierte Daten vorliegen, kann eine diachrone Analyse der reflexiven Passagen und ihrer Attribution über einen Zeitraum von 350 Jahren vorgenommen werden.



Prosopographische Interoperabilität (IPIF) - Stand der Entwicklungen

Georg Vogeler1, Richard Hadden2, Matthias Schlögl2, Gunter Vasold1

1Universität Graz, Austria; 2Österreichische Akademie der Wissenschaften, Österreich

Bericht über die Entwicklungen am International Prosopographical Interoperability Framework (IPIF)



Die Preußische Monarchie visualisieren - Ein Bericht aus dem Werkzeugkasten

Jan Wierzoch, Lou Klappenbach

Berlin-Brandenburgische Akademie der Wissenschaften, Germany

Visualisierungen in ihren unterschiedlichen Formen stellen nicht nur eine Ergänzung zur klassischen Edition dar, sondern eröffnen durch Verknüpfungsmöglichkeiten und interaktive Elemente neue Perspektiven auf Forschungsdaten. Die Aufbereitung von Kulturdaten zur Visualisierung und ihre Online-Publikation kann Forscher:innen anregen, mit ihnen zu experimentieren. Visualisierungen bieten als Teil digitaler Editionen neue und teilweise interaktive Möglichkeiten der Vermittlung historischer Informationen. Sie können einen neuen Blick auf die Daten einer Edition eröffnen, ob in Karten, Diagrammen oder anderen Visualisierungsmodi, weiter explorierbar durch beispielsweise Filter, Suche, Zoom und Verlinkungen. Wie Visualisierungen eine Edition bereichern können, wird im Projekt “Die Sprache der Monarchie” sichtbar und soll auf der DHd2022-Konferenz in einem Posterbeitrag präsentiert werden.



Spotlights: Wie das OpenMethods-Metablog Digital Humanities-Methoden, -Tools und -Toolmaker ins Scheinwerferlicht rückt

Ulrike Wuttke1, Erzsébet Tóth-Czifra2, Marinella Testori3, Aliz Horvath4, Paul Spence5, Helen Katsiadakis6

1Fachhochschule Potsdam, Germany; 2DARIAH-EU, France; 3CIRCSE at the Catholic University in Milan, Italy; 4Eötvös Loránd University, Hungary; 5King’s College London, UK; 6Academy of Athens, Greece

Das OpenMethods-Metablog bringt Open-Access-Inhalte zu DH-Methoden und -Werkzeugen in verschiedenen Formaten und Sprachen zusammen. Ziel ist es, das Wissen um die selbigen zu verbreiten und ihre Anerkennung in der DH-Community und darüber hinaus zu erhöhen. Im Poster präsentieren wir mit dem Format ‘Spotlights’ die jüngste Weiterentwicklung der Plattform. Diese neue Serie von längeren Originalbeiträgen in Interviewform im Metablog zielt darauf ab, die Menschen hinter den DH-Werkzeugen und -Methoden besser sichtbar zu machen. In Zentrum unserer Posterpräsentation sollen neben der Vorstellung der neuen Spotlights-Serie (mittels einer interaktiven Demo) unter anderem die Diskussion der Herausforderungen des OpenMethods-Editorial Teams in Bezug auf die Nachhaltigkeit der Plattform stehen sowie gemeinsam mit der DHd-Community darüber nachgedacht werden, wie Beiträge, neueste Entwicklungen, Community-Praktiken etc. aus dem deutschsprachigen DH-Diskurs besser dargestellt werden können.

 
20:00 - 21:00Informeller Ausklang
Virtueller Veranstaltungsort: DHd2022 Gathertown
Passwort: dhd2022
Datum: Freitag, 11.03.2022
8:30 - 16:00Öffnungszeiten Digitales Konferenzbüro
Virtueller Veranstaltungsort: Konferenzbüro
Zoom-Kenncode: 25654227
9:15 - 10:45V6_1: Digitale Geschichtswissenschaft
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 1
Chair der Sitzung: Stefan Schmunk, Hochschule Darmstadt - University of Applied Sciences
Zoom-Kenncode: 03049283
 

Vom gedruckten Gazetteer zum digitalen Ortsverzeichnis - Das Geschichtliche Ortsverzeichnis (GOV)

Anne Purschwitz1, Jesper Zedlitz2

1Martin-Luther Universität Halle-Wittenberg, Germany; 2Verein für Computergenealogie

Ortsnamen und geographische Räume wie auch ihre Positionierung spielen in der Geschichtswissenschaft eine wichtige Rolle. Vor diesem Hintergrund ist es häufig erforderlich Ortsnamen zu recherchieren, eine Lokalisierung und eine Visualisierung auf unterschiedlichem Kartenmaterial vorzunehmen. Mittlerweile stehen dafür eine Vielzahl von Tools zur Verfügung. Gerade in dem breiten verfügbaren Spektrum liegen Möglichkeiten aber auch Schwierigkeiten für Forscher*innen und interessierte Laien.

Die Besonderheiten historischer Raumzuordnungen beinhalten spezifische Herausforderungen bei der Aufbereitung, Präsentation und Recherche. Die Mehrheit der aktuell als Open-Access verfügbaren Ortsverzeichnisse berücksichtigt dieses ‚historische Werden‘ nur unzureichend bis gar nicht.

Das Geschichtliche Ortsverzeichnis des ‘Vereins für Computergenealogie’ stellt sich den Herausforderungen in der Modellierung von Zeit und Raum. Im GOV wurden dafür topologische Beziehungen modelliert, die im Unterschied zu Time-slices belastbarer sind. Entstanden ist ein hierarchisches Modell, das zwischen Siedlung und Administration trennt, beide Ebenen aber vielfältig miteinander in Beziehung setzen kann. Das GOV geht damit deutlich über bisherige Standards hinaus.



Automatisierte Extraktion und Klassifikation von Variantenschreibungen historischer Berufsbezeichnungen in seriellen Quellen des 16. bis 20. Jahrhunderts

Katrin Moeller, Jan Michael Goldberg

Martin-Luther-Universität Halle-Wittenberg, Germany

Berufsangaben kommen in sehr vielen historischen Quellen vor. Für eine Vielzahl von Forschungsgebieten bildet nicht nur die Standardisierung, sondern vor allem eine ordnende Klassifikation eine zentrale Voraussetzung zur tatsächlichen Analyse von Berufen nach verschiedenen möglichen Ordnungsprinzipien. Einen Ansatz bildet die „Ontologie der historischen Amts- und Berufsbezeichnungen (OhdAB)“. Der Vortag beschäftigt sich mit der automatisierten Zuordnung von Variantenschreibungen von Amts- und Berufsbezeichnungen zu den Berufsgattungsnamen dieses Klassifikationsansatzes. Im Mittelpunkt des Beitrags steht ein Algorithmus zur Identifizierung von Berufsbezeichnungen in strukturierten Quellen. Entwickelt wurde eine Vorgehensweise des Machine Learnings zur Erkennung von Variantenschreibungen. Diese besteht aus einem komplexen Workflow eines automatisierten Preprocessings zur Identifizierung bzw. Separierung der eigentlichen Berufsangaben und einer auf einem Algorithmus beruhenden Zuordnung unbekannter Varianten zur Klassifikation. Bei der Anwendung auf einen unbereinigten und stark heterogenen Datensatz des Vereins für Computergenealogie und eines korrigierten Trainingssets wurde eine Erkennungsrate von 75 Prozent der Berufsangaben mit 5 % fehlerhaften Zuordnungen ermittelt.



Anzeigen als Daten. Dynamisches Tagging und iterative Auswertung eines frühneuzeitlichen Intelligenzblattes

Ina Serif, Anna Reimann, Alexander Engel

Universität Basel, Switzerland

Das SNF-Projekt "Märkte auf Papier – das Basler Avisblatt 1729–1844" untersucht ein wöchentlich erschienenes vormodernes Anzeigenblatt, das einen erheblichen Teil des sozioökonomischen Austauschs in einer Schweizer Stadt über einen Zeitraum von 116 Jahren abdeckt. Es umfasst Angebote und Gesuche von Waren, Dienstleistungen, den Arbeits- und Immobilienmarkt, Geldverleih und andere Aspekte des sozialen und wirtschaftlichen Lebens. Die Quelle wurde digitalisiert und eine Datenbank mit hunderttausenden von Anzeigen aufgebaut. Um diese auswerten und analysieren zu können, wurden sie mit klassifizierenden Metadaten ergänzt. Anstatt zu versuchen, eine a priori, one-serves-all-Klassifizierung vorzunehmen, verwenden wir eine Strategie des algorithmischen Taggings mit dictionary-basierten R-Skripten. Diese können im Verlauf der Analyse dynamisch entwickelt werden, was zu einem iterativen Verfeinerungsprozess von Hypothesen und Heuristiken führt. Ein solcher Ansatz vermeidet die Erzeugung von Single-Use-Datensätzen oder Datenfriedhöfen und versteht damit sowohl Daten als auch deren Analyse als sich ständig weiterentwickelnd und voneinander abhängig.

 
9:15 - 10:45P6: Panel 6: Kultur – Daten – Kuratierung: Was speichern wir und wozu?
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag Panels
Zoom-Kenncode: 79032521
 

Kultur – Daten – Kuratierung: Was speichern wir und wozu?

Chair(s): Reinhard Altenhöner (Staatsbibliothek zu Berlin – Preußischer Kulturbesitz), Lisa Dieckmann (Universität zu Köln), Andreas Münzmay (Universität Paderborn), Kristina Richts-Matthaei (Universität Paderborn, Germany), Daniel Röwenstrunk (Universität Paderborn), Martha Stellmacher (SLUB Dresden)

Vortragende: Margarete Pratschke (HU Berlin), Patrick Primavesi (Universität Leipzig), Christoph Schulz (FH Düsseldorf)

Das Panel zielt, ausgehend von Impulsbeiträgen aus den Feldern Bild- und Netzkultur, Tanz, Theater und Performance sowie Bewegungsbücher und gaming arts, auf eine offene Community-Diskussion über die Frage der Datenauswahl für langfristige Archivierungen. Ein zentraler Ausgangspunkt dafür ist zugleich der Auftrag des Konsortiums NFDI4Culture, wissenschaftsgeleitet Strategien für das nachhaltige Forschungsdatenmanagement im Bereich der materiellen und immateriellen Kultur mitzuentwickeln und vermittelnd dazu beizutragen, dass die richtigen Partner – Datenproduzierende, Datenkuratierende wie Datennutzende – zusammenfinden. Angesichts der oft stark technisch bestimmten Entwicklung entsprechender Standards und Anforderungen regt das Panel an, auch die grundlegendere Frage in den Blick zu rücken, was in die Bewahrung eingeht und welche Anforderungen zukünftiger Forschung an diese Objekte wahrscheinlich sind. Was speichern wir und wozu? Was macht es mit 'Kultur', wenn wir sie digital speichern, oder nicht speichern, oder nur für eine gewisse Zeit speichern?

 
9:15 - 10:45V6_2: Computationelle Emotionsanalyse
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 2
Chair der Sitzung: Manfred Stede, Universität Potsdam
Zoom-Kenncode: 02010482
 

Lieblingsgegenden, Fenster und Mauern. Zur emotionalen Enkodierung von Raum in Deutschschweizer Prosa zwischen 1850 und 1930

J. Berenike Herrmann, Giulia Grisot

Universität Bielefeld, Germany

Ausgehend vom übergreifenden Forschungsinteresse einer datenbasierten Komparatistik der deutschsprachigen Länder möchte unser Beitrag erste Ergebnisse berichten über die emotionale Enkodierung von fiktionalem Raum. Anhand des DCHLi (Deutschschweizer Literaturkorpus), zurzeit als Pilotkorpus (76 Texte, 1854-1930, ca. 2 Mio. Wörter), und ausgehend von einem semiotischen Zugang zu textuell enkodierten Emotionen und Raumanalyse legen wir den derzeit gängigen Diktionär-basierten Zugang zu dimensionalen (Valenz, Arousal) und diskreten Emotionen (“Angst”, “Freude”, “Wut”, “Trauer”, "Ekel") an.

Welche unterschiedlichen Typen von Landschaft und Raum gibt es in der fiktionalen deutschschweizer Prosa zwischen 1854 und 1930, und wie sind diese jeweils emotional enkodiert?

Unsere quantitative Befunde stellen Bezüge her zu ikonischen Kultur/Natur-Dichotomien im Erbe der Romantik, zu historischen Stadt/Land-Konstellationen, aber auch zu einem nationalliterarischen Rahmen mit vielbeklagtem Schweizer “Mythos” einerseits und identifikatorischen (oftmals Alpen-orientierten) Angeboten für die “imagined community” (Anderson) der sogenannten Willensnation andererseits. Wir schließen mit einer methodologischen Reflexion der Sentimentanalyse innerhalb der DH.



Emotionen im kulturellen Gedächtnis bewahren

Katrin Dennerlein1, Thomas Schmidt2, Christian Wolff2

1Institut für Deutsche Philologie, JMU Würzburg; 2Lehrstuhl für Medieninformatik, Universität Regensburg

Die in literarischen Texten enthalten Emotionsdarstellungen sind aus dem Abstand einiger Jahrhunderte aufgrund veränderter anthropologischer Vorstellungen und literarischer Darstellungskonventionen oftmals nicht mehr verständlich. Das ist auch der Fall bei deutschsprachigen Dramentexten aus dem 17. bis 19. Jahrhundert. Will man diese Dramen für die Gegenwart nicht nur speichern, sondern auch verständlich halten, muss man nicht nur die Texte selbst, sondern auch die Information, welche Emotion jeweils von einer Figur gemeint ist, im kulturellen Gedächtnis bewahren. Im Beitrag wird zunächst die Emotionstaxonomie mit vier Oberklassen und 13 Einzelemotionen begründet, die es ermöglichen soll, Kontinuität und Wandel in der Emotionsdarstellung im Untersuchungszeitraum zu erforschen. Anschließend wird die Prädominanz von ‚Leid‘ und die Verteilung der Emotionen ‚Leid‘ und ‚Freude‘ im Handlungsverlauf der 11 bisher annotierten Dramen diskutiert. Zum Schluss wird erläutert, inwiefern von Deep Learning-basierten Sprachmodellen auf derzeitigem Stand erstmals kontextsensitive Vorhersageergebnisse zu erwarten sind, die über bisherige Machine-Learning-Verfahren hinausgehen.



Jung, wild, emotional? Rollen und Emotionen Jugendlicher in zeitgenössischer Fantasy-Literatur

Marie Flüh1, Mareike Schumacher2

1Universität Hamburg, Germany; 2Technische Universität Darmstadt

In unserem Beitrag stellen wir eine Fallstudie zur computergestützten Analyse von Genderrollen und Emotionen in zeitgenössischen Fantasy-Romanen für Jugendliche vor. Unter methodischer Perspektive möchten wir einen Mixed-Methods-Ansatz zur Diskussion stellen, in dem Named Entity Recognition, manuelle digitale Annotation und Netzwerkanalyse ineinander übergreifen. Unter inhaltlicher Perspektive werden Figurenrollen und daran gebundenen Emotionen hinsichtlich einer stereotypen Darstellungsweise befragt.

 
9:15 - 10:45V6_3: Communities und Infrastrukturen
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 3
Chair der Sitzung: Heike Neuroth, Fachhochschule Potsdam
Zoom-Kenncode: 50713125
 

Der SSH Open Marketplace – Kontextualisiertes Praxiswissen für die Digital Humanities

Alireza Zarei1, Yim Seung-Bin2, Matej Ďurčo2, Klaus Illmayer2, Laure Barbot3, Frank Fischer3,4, Edward Gray3

1GWDG Göttingen; 2Austrian Centre for Digital Humanities and Cultural Heritage; 3DARIAH-EU; 4Higher School of Economics, Moskau

Im Rahmen des Horizon-2020-geförderten Projekts "Social Sciences & Humanities Open Cloud" (SSHOC), das eine Laufzeit von 2019–2022 hat, wird der SSH Open Marketplace entwickelt, der einen Überblick nicht nur über digitale Tools und Services bietet, sondern auch über Trainingsmaterialien, Publikationen, Datensets und Workflows. Dabei werden diese miteinander kontextualisiert: Der Eintrag zu einem Tool verlinkt etwa Forschungspaper, die mithilfe dieses Tools entstanden sind, desweiteren passende Trainingseinheiten, zum Beispiel aus dem "Programming Historian", und, falls vorhanden, Forschungsdaten in einem für das Tool geeigneten Format. Das flexible Datenmodell und das Exponieren einer offenen API ermöglichen es, das gesammelte Praxiswissen für die Digital Humanities nutz- und erforschbar zu machen und eine neue, sich aktiv weiterentwickelnde Datenbasis dafür zu schaffen.



Der CLARIAH-DE Tutorial Finder

Antonina Werthmann1, Tobias Gradl2

1Leibniz-Institut für Deutsche Sprache; 2Universität Bamberg

Der Beitrag stellt einen im Rahmen des CLARIAH-DE Projekts entwickelten Dienst – den Tutorial Finder – vor. Dieser greift auf frei zugängliche und nachnutzbare Sammlungen von Lehr- und Schulungsmaterialien im Bereich der Digital Humanities (DH) zu und erlaubt es, sie in einem zentralen Verzeichnis zu durchsuchen. Die im Tutorial Finder erfassten Sammlungen stammen aus nationalen und internationalen Quellen und bieten vielfältige Materialien in unterschiedlichen Formaten an. Diese reichen dabei von einfachen Dokumentationen über aufgezeichnete Vorträge und Präsentationsfolien bis hin zu didaktisch-methodisch ausgearbeiteten Lerneinheiten und Modulen. Das offene Angebot des Tutorial Finders, das weiter verstetigt und erweitert wird, kann nicht nur von Lehrenden, Forschenden und Studierenden der DH zum Selbstlernen oder Einsetzen im Unterricht genutzt werden, sondern bietet allen Interessierten eine Möglichkeit, eigene Lehr- und Schulungsmaterialien einem möglichst breiten Nutzerkreis zugänglich zu machen und ihre langfristige Nachnutzbarkeit zu stärken.



Pragmatisches Forschungsdatenmanagement – qualitative und quantitative Analyse der Bedarfslandschaft in den Computational Literary Studies

Patrick Helling, Kerstin Jung, Steffen Pielström

Institut für Deutsche Philologie, Lehrstuhl für Comuterphilologie und neuere deutsche Literaturgeschichte, Universität Würzburg

Die Computational Literary Studies (CLS) sind ein interdisziplinäres Forschungsfeld im Schnittpunkt von Literaturwissenschaft, Computerlinguistik und Informatik, in dem digitale Forschungsdaten eine zentrale Rolle spielen. Elf Forschungsprojekte aus den CLS sind derzeit in einem DFG-Schwerpunktprogramm organisiert. Um die Forschungsdatenmanagement-Bedarfslandschaft in den Projekten zu erfassen und zu bedienen, wurde ein mehrstufiges Verfahren mit Interviewgesprächen, Analyseschritten und Reviewphasen implementiert. In Leitfaden-gestützten Interviews beantworteten die Teilnehmer*innen insgesamt 47 Fragen. Im Zuge der ersten Auswertung wurde ein Antworteninventar erstellt und den Projekten nochmals zur Überarbeitung zur Verfügung gestellt. Es zeigte sich u.a. ein breites Spektrum an Forschungsdaten und eine zentrale Rolle von kollaborativ genutzten Modellen und Programmcodes. Um die identifizierten Bedarfe zu bedienen, wurde zur Bündelung der Datenpublikationen eine Zenodo-Community eingerichtet. Ferner haben die Partnerinstitutionen nun die Möglichkeit, über eine gemeinsame Gitlab-Instanz kollaborativ an Datenbeständen zu arbeiten. Nach der Implementierung dieser pragmatischen Lösungen liegt der weitere Fokus nun auf der Entwicklung einer gemeinsamen Archivierungsstrategie.

 
10:45 - 11:15Kaffeepause
11:15 - 12:45V7_1: Maschinelles Lernen in der Literaturwissenschaft
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 1
Chair der Sitzung: Christof Schöch, Universität Trier
Zoom-Kenncode: 03049283
 

Evaluating Hyperparameter Alpha of LDA Topic Modeling

Keli Du

Universität Trier, Germany

As a quantitative text analytic method, Latent Dirichlet Allocation (LDA) topic modeling has been widely used in Digital Humanities in recent years to explore numerous unstructured text data. When topic modeling is used, one has to deal with many parameters that can influence the result of the modeling such as the hyperparameter Alpha and Beta, topic number, document length, number of iterations of model-updating. The present research has evaluated the influence of hyperparameter Alpha in topic modeling on a newspaper corpus and a literary text corpus from two perspectives, document classification and topic coherence. The results show that one should avoid training topic models with setting Alpha of each topic higher than 1 if one wants to ensure better topic modeling based document classification and more coherent topics.



Adapting Coreference Algorithms to German Fairy Tales

David Schmidt, Markus Krug, Frank Puppe

Universität Würzburg, Germany

Coreference Resolution is an important task in natural language processing that enables the combination of locally extracted information on a document level context or even across different documents, e.g. to display the relations between characters of a novel in a character network. In this work, we adapt a rule-based and an end-to-end deep learning algorithm which have previously been used on German novel fragments to the domain of German fairy tales and examine their performance. We find that the adaptation can improve their performance considerably, especially that of the deep learning algorithm.



Verwendung von Wissensgraphen zur inhaltlichen Ergänzung kleinerer Textkorpora

Thora Hagen

Julius-Maximilians-Universität Würzburg

Die Korpuserstellung ist einer der essenziellsten Schritte um ein Forschungsvorhaben im Bereich der Digital Humanities durchzuführen. Vor allem für speziellere Domänen (etwa bei der Analyse von Subgenres oder Dialekten) ist allerdings häufig nicht genügend Material verfügbar, um Methoden aus dem NLP Bereich nachnutzen zu können, da diese Gigabytes an Text verlangen. Dieser Aufsatz zeigt wie Wissensgraphen, welche zum Beispiel aus Wörterbüchern erstellt werden können, helfen, kleinere Textkorpora aufzuwerten. In dem hier durchgeführten Experiment wird ein auf 20 Megabytes trainiertes FastText Modell mit den Informationen aus GermaNet angereichert. Das resultierende Modell weist die selbe Performanz auf wie ein einfaches FastText Modell, welches auf etwa dreimal soviel Daten trainiert wurde.

 
11:15 - 12:45P7: Panel 7: Protokolle: Modellierung einer administrativen Textsorte
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag Panels
Zoom-Kenncode: 79032521
 

Protokolle: Modellierung einer administrativen Textsorte

Chair(s): Sven Jüngerkes (Kommission für Geschichte des Parlamentarismus und der politischen Parteien e. V.), Stephan Kurz (Österreichische Akademie der Wissenschaften, Austria)

Vortragende: Nadine Arndt (Berlin-Brandenburgische Akademie der Wissenschaften), Cornelia Baddack (Bundesarchiv), Wladimir Fischer-Nebmaier (Österreichische Akademie der Wissenschaften, Austria), Sebastian Gleixner (Bundesarchiv), Barbara von Hindenburg (Kommission für Geschichte des Parlamentarismus und der politischen Parteien e. V.), Maximilian Schrott (Historische Kommission bei der Bayerischen Akademie der Wissenschaften)

Administrative Textsorten, darunter prominent das Protokoll, stehen im Zentrum jeder Bürokratie, sie sorgen für das Funktionieren von Wissenstransfer innerhalb von Institutionen über Zeit und zwischen Akteuren. Was sie festhalten, ist relevant: Sie sind Quellen für die Forschung, sie sorgen in unterschiedlichen Verhältnissen aber auch für Organisationsgedächtnis, Verbindlichkeit und Transparenz innerhalb und zwischen Institutionen, Verwaltungseinheiten und der Gesellschaft. Das Panel nimmt die Verantwortung der Überlieferung von Protokollen ins Zentrum und fragt, wie Daten und Applikationen verfasst sein müssen, um der Gedächtnisfunktion von historischen “open governmental data” gerecht zu werden.

Primäres Ziel des Panels ist die Entwicklung gemeinsamer Best-practice-Mittel bei der Edition von protokollartigen Texten, insbesondere im Hinblick auf die Möglichkeiten von Mapping oder Harmonisierung der Datenmodelle der Projekte (etwa im Hinblick auf Metadatenerstellung oder APIs für Datenaustausch/Harvesting sowie Anbindung an Open Data-Portale). Daneben erwarten wir Hinweise zu wiederverwendbaren Werkzeugen, die sich in der Bearbeitung (nicht nur) dieser Textsorte bewährt haben.

 
11:15 - 12:45V7_2: Annotieren
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 2
Chair der Sitzung: Heike Zinsmeister, Universität Hamburg
Zoom-Kenncode: 02010482
 

Auf den Spuren einer altnordischen Saga-Ästhetik: Poetologische Aussagen in den Erzählerbemerkungen der Isländersagas

Michael Göggelmann1, Anna Katharina Heiniger1, Nils Reiter2, Angelika Zirker1

1Universität Tübingen, Germany; 2Universität Köln, Germany

Der Vortrag stellt die systematische Annotationen von Erzählerbemerkungen in den anonym überlieferten, mittelalterlichen Isländersagas (altnord. Íslendingasögur) vor und geht der Frage nach, ob und inwieweit diese als Teil einer Literarisierungsstrategie wirksam werden und damit Aussagen über ein den Isländersagas möglicherweise inhärentes Konzept der Autorschaft ermöglichen.

Die Untersuchung erfolgt anhand quantitativer Methoden auf Grundlage der systematischen Annotation der Texte. Er beruht auf der interdisziplinären Zusammenarbeit zwischen Computerlinguistik und Literaturwissenschaft: einer qualitativen Analyse der Texte folgten die systematische Annotation und quantitative Analyse.

Die Ergebnisse zeigen, dass sich die Erzählerbemerkungen nicht zufällig über die Sagas verteilen, sondern als Gestaltungsmittel die Höhe- und Wendepunkten der Sagas prägen. Die Untersuchungsmethode zeitigte somit mehr Ästhetik als erwartet und legte die intratextuellen Verweise innerhalb der Erzählerbemerkungen als Teil einer Literarisierungsstrategie und Mittel der poetologischen Verdichtung offen.



Inter Annotator Agreement und Intersubjektivität

Evelyn Gius, Michael Vauth

Technische Universität Darmstadt, Germany

In diesem Beitrag wird die Rolle von Inter-Annotator-Agreement-Messungen für literaturwissenschaftliche Annotationen diskutiert. Am Beispiel des EvENT-Projektes zeigen wir, dass mit den üblichen IAA-Metriken die literaturwissenschaftlich untersuchten Phänomene nicht berücksichtigt werden. Aus diesem Grund machen wir einen alternativen Vorschlag zum Vergleich literaturwissenschaftlicher Annotationen, der im Einklang mit der Praxis des Erkenntnisgewinns in der Literaturwissenschaft genutzt und weiterentwickelt werden soll.



Mithilfe von Machine Reasoning alchemische Decknamen entschlüsseln

Sarah Lang

Universität Graz, Austria

Der Übergang von alchemischer Sprache zu chemischer Nomenklatur wird mitunter sogar erst als die Geburtsstunde der Chemie im Zuge einer ‘Chemical Revolution’ angesehen. Neuere Studien der Alchemiegeschichte zeigen jedoch, dass auch hinter der vormals häufig als obskur und sinnfrei bezeichneten Sprache der Alchemie valide chemische Erkenntnisse standen.

Doch könnte nicht eine computergestützte Analyse dem alchemistischen Stilmittel der sogenannten 'Decknamen' beikommen?

Eine digitale Methode zur automatisierten semantischen Annotation und halbautomatisierten Disambiguierung macht im Kontext eines digitalen Korpus mithilfe von Machine Reasoning alchemische Sprache systematisch analysierbar. Dazu wird ein Semantic Web Wissensorganisationssystem unter der Verwendung von SKOS und RDFS sowie andererseits automatisierte Annotation semanitscher Ambiguität verwendet. Der vorliegende Beitrag stellt die Ergebnisse der Implementation eines solchen Algortihmus anhand des Korpus Michael Maiers (1568-1622) vor und diskutiert dessen Übertragbarkeit auf andere Quellen.

 
11:15 - 12:45V7_3: Digitale Sammlungsforschung
Virtueller Veranstaltungsort: DHd2022 Zoom Freitag 3
Chair der Sitzung: Thomas Staecker, ULB Darmstadt
Zoom-Kenncode: 50713125
 

Hemisphären des digitalen Gedächtnisses. Analyse von TEI-kodierten Bibelreferenzen mit XQuery im Rahmen der »Bibliothek der Neologie«

Marco Stallmann1, Uwe Sikora2, Hannah Kreß1, Bastian Lemitz1, Andreas Pietsch1, Lukas Wünsch1

1Westfälische Wilhelms-Universität Münster, Germany; 2Niedersächsische Staats- und Universitätsbibliothek Göttingen

Der Beitrag präsentiert die im Rahmen des DFG-Langfristvorhabens „Bibliothek der Neologie“ entwickelte XQuery-Analyse TEI-kodierter Bibelreferenzen in digitalen Editionen, die dadurch erstmals präzise auf Verweishäufigkeiten, Verwendungskontexte und Korrespondenzen mit textkritischen Phänomenen untersucht werden können. Der Ansatz verbindet quantitative und qualitative Analysemethoden, greift einschlägige Konzepte wie Distant Reading oder Cultural Analytics auf und zielt bewusst auf die Ermöglichung neuer Forschungsfragen, die durch veränderte Informationsbedingungen allererst aufgeworfen werden. Die für die Entwicklung der Bibelstellenanalyse notwendige Integration fachwissenschaftlicher und informationstechnologischer Perspektiven kommt in dem Bild von den „Hemisphären des digitalen Gedächtnisses“ zum Ausdruck und trägt jüngeren Bestandsaufnahmen Rechnung, die im Bereich der Digital Humanities eine noch immer unzureichende Kommunikations- und Kooperationsstruktur diagnostizieren.



Von der Wolke zum Pfad: Visuelle und assoziative Exploration zweier kultureller Sammlungen

Viktoria Brüggemann, Mark-Jan Bludau, Christopher Pietsch, Marian Dörk

UCLAB, Fachhochschule Potsdam, Germany

Die in den letzten Jahren entstandenen explorativen Visualisierungen musealer Sammlungen widmen sich zumeist einzelnen Sammlungen, welche oft einer spezifischen Systematik folgen und eine geringe Vielfalt an Objektgattungen und Attributen aufweisen. Das hier vorgestellte Forschungsprojekt stellte sich die Frage, wie verschiedene, in sich heterogene, Sammlungen miteinander verknüpft, visualisiert und exploriert werden können, ohne die Unterschiede zwischen ihnen zu nivellieren. Dazu wurden im Rahmen einer Forschungskooperation mit den Staatlichen Museen zu Berlin die Bestände aus dem 19. Jahrhundert der Alten Nationalgalerie sowie des Museums Europäischer Kulturen ausgewählt. Das Ziel war es, übergreifende Zusammenhänge und Resonanzen zwischen den Sammlungen aufzugreifen und dynamische, interaktive Arrangements zu entwickeln, welche die assoziative Exploration von Beständen anregen. Das Ergebnis ist ein interaktiver Prototyp, der eine globale Übersicht in Form einer annotierten Wolke mit der lokalen Perspektive eines auf Ähnlichkeiten basierten Pfads verknüpft.



Multimodale KI zur Unterstützung geschichtswissenschaftlicher Quellenkritik – ein Forschungsaufriss

Sander Muenster1, Jonas Bruschke2, Cindy Kroeber1, Stephan Hoppe3, Ferdinand Maiwald1, Florian Niebling2, Aaron Pattee3, Ronja Utescher1,4, Sina Zarriess4

1FSU Jena, Germany; 2JMU Wuerzburg, Germany; 3LMU Muenchen, Germany; 4U. Bielefeld, Germany

Fotografien und andere Abbilder von Architektur dienen in vielen historischen Wissenschaften als Quelle und Grundlage für fach- und theoriespezifische Untersuchungen. So werden zum Beispiel historische Fotoaufnahmen herangezogen, um den Zustand eines Gebäudes zu rekonstruieren oder die Formensprache einer Epoche zu identifizieren. Ausgangspunkt dieser Szenarien aus Architektur-, Kunstgeschichte und Kulturwissenschaften ist eine durch Hilfsmittel der jeweiligen Fächer unterstützte Quellenrecherche und -kritik, auf die weitere Auswertungen und Verwendungen im wissenschaftlichen Kontext aufbauen. Das BMBF-geförderte Projekt HistKI startete im Januar 2021 und will die Unterstützung und Modellierung von Bildquellenrecherche und -kritik als komplexe und grundlegende geschichtswissenschaftliche Arbeitstechnik durch multimodale KI-basierte Verfahren erforschen. Damit verbundene Teilfragen sind beispielsweise: Wie finden und beurteilen Historiker und andere Fachwissenschaftler Bildquellen? Welche generischen Vorgehensweisen und Teilproblemstellungen lassen sich hierfür identifizieren? Wie lässt sich dies mit KI-basierten Ansätzen befördern? Wie wirken sich KI-Techniken auf den geisteswissenschaftlichen Forschungsprozess aus? In diesem Beitrag werden ein Forschungsaufriss sowie erste Arbeitsschritte vorgestellt.

 
12:45 - 14:00Mittagspause
14:00 - 15:30Tagungsabschluss mit Keynote
Virtueller Veranstaltungsort: DHd2022 Zoom Closing
Zoom-Kenncode: 80266545

 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: DHd2022
Conference Software - ConfTool Pro 2.6.145
© 2001–2022 by Dr. H. Weinreich, Hamburg, Germany