Veranstaltungsprogramm

Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.

 
Nur Sitzungen an einem bestimmten Tag / zu einer bestimmten Zeit 
 
 
Sitzungsübersicht
Datum: Mittwoch, 24.09.2025
10:00 - 11:30Workshop 1
Ort: SR 217
 

Bias Detection in der historischen Textanalyse: Prompting, Perspektiven und semantische Präzision in der AI-Readiness der MHDBDB

Julia Hintersteiner, Alan Lena van Beek, Katharina Zeppezauer-Wachauer

Universität Salzburg, Österreich

In diesem 90-minütigen Workshop untersuchen die Teilnehmenden anhand konkreter Beispiele aus der Mittelhochdeutschen Begriffsdatenbank (MHDBDB), wie sich Verzerrungen in historischen Textkorpora identifizieren und kritisch analysieren lassen. Die MHDBDB ist eine semantisch annotierte Forschungsinfrastruktur, die aktuell für den Einsatz in AI-gestützten Analyseverfahren vorbereitet wird. Ziel ist es, historische Daten nicht nur zugänglich, sondern auch reflektiert und bias-bewusst nutzbar zu machen.

Im Zentrum des Workshops stehen zwei aufeinander aufbauende Aktivitäten: Zunächst schlüpfen die Teilnehmenden in die Rolle von Bias-Detektiv*innen und analysieren ausgewählte Begriffe aus der MHDBDB auf potenzielle Verzerrungen durch moderne Lesarten oder normdatenbasierte Kategorien. Anschließend experimentieren sie mit verschiedenen Prompting-Strategien für Large Language Models (LLMs), um zu erproben, wie sich unterschiedliche Fragestellungen auf die AI-generierten Antworten auswirken – insbesondere im Hinblick auf stereotype Reproduktionen oder historische Unschärfen.

Der Workshop vermittelt praktische Kompetenzen im Umgang mit semantischen Kategorien, Prompting und Bias-Analyse und unterstützt so die Entwicklung kritischer Datenkompetenz in den Digital Humanities. Gleichzeitig leistet er einen Beitrag zur methodischen Weiterentwicklung bias-sensibler AI-Infrastrukturen für die historische Forschung.

 
11:30 - 12:30Mittagspause
12:30 - 16:00Workshop 2
Ort: HS 218
 

Wer weiß schon wo? Identifikation, Erfassung und Systematisierung historischer Ortsangaben

Anne Purschwitz1,4,5, Sophie Döring2, Felix Köther3,4

1Historisches Datenzentrum Sachsen-Anhalt, Deutschland; 2Institut für Sächsische Geschichte und Volkskunde; 3Herder-Institut für historische Ostmitteleuropaforschung; 4NFDI4Memory; 5Martin-Luther Universität Halle-Wittenberg

Historische Ortsdaten müssen aufgrund der zunehmenden Vernetzung von Forschungsdaten besonders im Bereich der Digital Humanities einer neuen, zeitgemäßen Auseinandersetzung hinsichtlich ihrer Erfassung und Kuration unterworfen werden. Die oftmals nur inadäquat und häufig beiläufig mitgeführten Daten historischer Orte stellen eine kaum genutzte Datenschnittstelle dar, die durch ihre ‚stiefmütterliche‘ Behandlung mittlerweile von einer schlecht genutzten Chance zum handfesten Problem für viele Forschungsprojekte und historische Datenbanken geworden ist. Sowohl die Nichtexistenz von einheitlichen Erfassungsvorgaben sowie das Fehlen einer zentralen Verzeichnungs- und Verwaltungsstelle für historische Ortsdaten erschweren nicht nur die Verortung und Identifikation der eigenen Forschungsergebnisse, sondern auch die Weiternutzung der einmal mühselig erhobenen Daten durch andere Projekte. Trotz der offensichtlichen Schwierigkeiten bilden historische Ortsdaten für breite Teile der historisch-geisteswissenschaftlichen Forschung einen gemeinsamen Nenner, den es zu erschließen und effektiv nutzen gilt. Einen sichereren Umgang und erste Lösungsansätze für die vielschichtige Arbeit mit historischen Ortsdaten soll der vorliegende Workshop mithilfe eines speziell für historische Ortsdaten konzipierten Minimaldatensatz vermitteln, der sich sowohl für kleinere Projektstrukturen als auch für Schnittstellenarbeiten in größeren Projektverbünden eignet.

 
12:30 - 16:00Workshop 4
Ort: Konzilzimmer (R. 213)
 

„Welche Sprache sprechen wir, wenn wir über Daten sprechen?“ Wege zu inklusiver und partizipativer Data Literacy in den Geisteswissenschaften

Andreas Christ, Katrin Anna Lehnen, Samuel Wunsch

Christian-Albrechts-Universität zu Kiel, Deutschland

Ziel des Workshops ist es, zu diskutieren und zu praktizieren wie Data Literacy in den Geisteswissenschaften verständlich, barrierearm und nachhaltig vermittelt werden kann. Im Mittelpunkt steht die Verbindung zwischen FAIR-Prinzipien und „Einfacher Sprache“ sowie die Vermittlung mittels kreativer Methoden. Vorgestellt werden zwei inklusive Projekte der Universität Kiel: das Weiterbildungsprogramm „Datenlotse“ und das Projekt „InFo“ zur inklusiven Forschung. Darauf aufbauend erstellen die Teilnehmenden eine eigene kleine digitale Lerneinheit, die Data Literacy im eigenen Fach- oder Arbeitsbereich fördert. Ein abschließender Pitch mit Peer-Feedback wird durch die Perspektive einer Bildungsfachkraft als Selbstvertreter aus dem Workshop-Moderationsteam ergänzt, der die Perspektive derer spiegelt, die häufig aufgrund von Beeinträchtigungen von Bildungsangeboten ausgeschlossen werden. Wir wollen gemeinsam folgende Ergebnisse erreichen: die Bedeutung barrieresensibler Zugänglichkeit im Kontext von Data Literacy verstehen, FAIR-Prinzipien in geisteswissenschaftliche Lehr-Lern-Kontexte übersetzen, Methoden wie Storytelling, Gamification und Edutainment anwenden lernen, ein eigenes H5P-Modul in Moodle für den Umgang mit geisteswissenschaftlichen Daten erstellen sowie Peer-Feedback-Kultur fördern und reflektieren Der Workshop richtet sich an alle, die inklusive, verständliche und praxisnahe Wege zur Vermittlung von Datenkompetenz suchen.

 
12:30 - 16:00Workshop 5
Ort: SR 217
 

Repositorien-, Organisations- und projektübergreifende semantische Meta-Suche am Beispiel der Metadatenbank von Pfarrpersonen im deutschsprachigen Raum

Thomas Riechert1, Wolfgang Krogel2, Jan Brademann3, Birgit Hoffmann4, Heinrich Löber5, Christina Neuß6, Johann Peter Wurm7

1Hochschule für Technik, Wirtschaft und Kultur Leipzig, Deutschland; 2Landeskirchliches Archiv Berlin, Deutschland; 3Archiv der Evangelischen Landeskirche Anhalts, Deutschland; 4Landeskirchliches Archiv Braunschweig, Deutschland; 5Landeskirchliches Archiv Stuttgart, Deutschland; 6Landeskirchenarchiv Eisenach, Deutschland; 7Landeskirchliches Archiv Schwerin, Deutschland

Im Fokus des geplanten Workshops stehen verschiedene methodische Ansätze bei der Realisierung von Projekten zur Repositorien-, Organisations- und projektübergreifende semantische Meta-Suche, welche die Zusammenführung gleicher Ressourcen, die Sicherung der Datenqualität, die Bereitstellung von Werkzeugen in einer übergreifenden Infrastruktur adressieren. Der Vorschlag umfasst neben der Motivation und den Zielen, einen Plan zum Ablauf des Workshops.

 
12:30 - 16:00Workshop 3
Ort: SR 114
 

Tag me, if you can. Eine FDM-Servicekatalogisierung im Praxistest

Marina Lemaire1, Patrick Helling2

1Universität Trier, Deutschland; 2Universität zu Köln, Deutschland

Die wachsende Bedeutung von Forschungsdatenmanagement (FDM) stellt Forschungseinrichtungen vor die Herausforderung, FDM-Services nicht nur bereitzustellen, sondern auch auffindbar, nachvollziehbar und vergleichbar zu machen. Die Vielfalt der Angebote, von lokalen bis internationalen Services, erschwert es Forschenden und FDM-Beratungspersonal, passende Dienste zu identifizieren und zu bewerten. Gleichzeitig müssen Anbieter entscheiden, welche Informationen sie bereitstellen, um ihre Angebote nutzbar zu machen. Zudem benötigt die Nationale Forschungsdateninfrastruktur (NFDI) einen „föderierten Dienste-Katalog“, um als Teil der European Open Science Cloud (EOSC) zu fungieren. Um diesen Herausforderungen zu begegnen, wurde von der GO UNITE! AG “FDM-Beschreibungsmodell” ein Metadatenmodell entwickelt, das auf bestehenden Modellen aufsetzt und vier Oberkategorien (generelle Informationen, Klassifizierung, Verfügbarkeit, organisatorische Informationen) mit 23 Unterkategorien umfasst. In dem Workshop wird dieses Modell praktisch erprobt und weiterentwickelt. Expert*innen aus verschiedenen FDM-Bereichen werden das Modell anhand von Beispielen aus ihren Einrichtungen evaluieren, um dessen Passfähigkeit, Granularität und Vollständigkeit zu überprüfen. Die Diskussionen sollen Stärken, Lücken und Verbesserungspotenziale aufdecken, insbesondere hinsichtlich der Abgrenzung von Services, Taxonomien und Auffindbarkeit.

 
12:30 - 16:00Workshop 6
Ort: SR 113
 

Sammlungen als Forschungsdaten. Datennutzung als Gemeinschaftsaufgabe

Anja Gerber2, Anna Gnyp3, Frank von Hagel5, Michael Markert4, Henrik Schönemann3, Alexander Winkler1

1Zuse Institute Berlin, Deutschland; 2Klassik Stiftung Weimar; 3Humboldt-Universität zu Berlin; 4Friedrich-Alexander-Universität Erlangen-Nürnberg; 5Institut für Museumsforschung

Sammlungsdaten sind auch Forschungsdaten und als solche werden sie verstärkt wahrgenommen. Die computerbasierte Verarbeitung von Sammlungsdaten birgt jedoch gewisse Herausforderungen, da die Datenangebote die Bedarfe der Nutzung in der Forschung etwa mit Blick auf Zugänglichkeit und Interoperabilität nicht adäquat adressieren. Eine verbesserte Nutzbarkeit setzt eine enge Kooperation zwischen Sammlungen und Forschenden voraus. In diesem Workshop sollen mittels Personaentwicklung die Anforderungen der Nutzung von Sammlungsdaten in der Forschung herausgearbeitet werden.

 
14:00 - 14:30Kaffeepause
16:00 - 17:30Kaffeepause
17:30 - 19:30Eröffnung und Keynote
Ort: Aula (R. 212)
 

Editiones vitreae sunt: tum cum splendent, franguntur. Daten, Software und Theorie zwischen Zufall, Schicksal und Magie

Elisa Cugliana

Universität zu Köln, Deutschland

Editiones vitreae sunt: tum cum splendent, franguntur. Daten, Software und Theorie zwischen Zufall, Schicksal und Magie

 
19:30 - 21:30Empfang zur Eröffnung
Datum: Donnerstag, 25.09.2025
9:00 - 10:30Vorträge 1: Ethische und rechtliche Aspekte von Forschungsdaten
Ort: Aula (R. 212)
 

Value Sensitive Design: Ein Ansatz zum Umgang mit ethischen Fragestellungen im Forschungsdatenmanagement

Katharina Leyrer

FAU Erlangen-Nürnberg, Deutschland

Die CARE-Prinzipien werden oft in einem Atemzug mit den FAIR-Prinzipien genannt. Die CARE-Prinzipien beschränken sich – anders als die FAIR-Prinzipien – aber auf den Umgang mit Daten aus indigenen Kontexten. Bei der Arbeit mit geisteswissenschaftlichen Forschungsdaten kann jedoch eine große Bandbreite unterschiedlicher ethischer Fragen eine Rolle spielen. Zugleich fehlt es bislang an konkreten Leitlinien, die Orientierung für den ethischen Umgang mit Forschungsdaten über indigene Kontexte hinaus bieten, die also universell angewendet werden können. Dieser Vortrag schlägt daher vor, den Ansatz des Value Sensitive Design aus der Informationsethik zu nutzen, um ethischen Fragestellungen beim Forschungsdatenmanagement zu begegnen. Value Sensitive Design ist ein theoretisches und methodisches Framework, das entwickelt wurde, um Technologien wertesensitiv zu entwickeln, indem die Werte aller betroffenen Akteur*innen im gesamten Design-Prozess reflektiert und berücksichtigt werden. Der Vortrag zeigt anhand von Beispielen, wie dieses Framework angepasst und übertragen werden kann, um ethischen Herausforderungen beim Forschungsdatenmanagement in den Geisteswissenschaften theoriebasiert und strukturiert begegnen zu können.



Open.Oral-History. Ein Projekt zur Risikobewertung, Anonymisierung und Bereitstellung rechtlich geschützter und ethisch sensibler audiovisueller Interviews

Peter Kompiel, Verena Nägel, Tobias Kilgus

FU Berlin, Universitätsbibliothek

Im Vortrag wird das von der Deutschen Forschungsgemeinschaft geförderte Projekt Open.Oral-History vorgestellt, das von der Freien Universität Berlin und der FernUniversität Hagen umgesetzt wird. Das Projekt verfolgt das Ziel Sammlungsverantwortliche dabei zu unterstützen, rechtlich geschützte und ethisch sensible Interviews systematisch auf ihre Bereitstellung hin zu bewerten. Ein besonderer Fokus liegt auf der Entwicklung von Empfehlungen und Werkzeugen, die – unterstützt durch Künstliche Intelligenz – eine sichere Anonymisierung und digitale Zugänglichmachung der sensiblen audiovisuellen Quellen ermöglichen.

Der Schwerpunkt des Vortrags liegt auf der Vorstellung des Anonymisierungsworkflows, welcher die automatische Transkription (ASR), die halbautomatische Identifikation zu anonymisierender Entitäten (z.B. Namen, Orte) via Named Entity Recognition (NER) sowie die Anonymisierung von Transkripten und audiovisuellen Medien umfasst.

Das Projekt verknüpft ethische und juristische Fragen mit technischen Lösungen und adressiert damit zentrale Themen der FORGE25: kritische Reflexion von Forschungsdaten, innovative Nutzung neuer Technologien (KI) sowie die Optimierung von Datenqualität und Nachnutzbarkeit.



Ganz, halb oder gar nicht? Herausforderungen und Strategien bei der Veröffentlichung sensibler Forschungsdaten aus einem Literaturarchiv

Viktor J. Illmer, Frank Fischer

Freie Universität Berlin, Deutschland

Im Rahmen des Projekts »Writing Berlin« am Exzellenzcluster »Temporal Communities« wurde die Einreisekartei des Deutschen Schriftstellerverbandes (DSV) digitalisiert, die Informationen zu Hunderten ausländischen Autor*innen und deren Besuchen in der DDR enthält. Daraus entstand eine Web-App, deren öffentliche Nutzung allerdings aufgrund datenschutzrechtlicher Vorgaben stark eingeschränkt ist. Die Datensätze dürfen nur differenziert verfügbar gemacht werden: Frei zugänglich sind Daten von Personen, deren Tod mindestens zehn Jahre zurückliegt (bzw. 110 Jahre nach Geburt). Für jüngere Daten wäre eine Veröffentlichung nur nach ausdrücklicher Zustimmung der Betroffenen bzw. Erben möglich oder anonymisiert, was wiederum technischen Aufwand und administrative Herausforderungen bedeutet. Der Vortrag diskutiert verschiedene Szenarien des Umgangs mit diesen Daten, analysiert rechtliche, technische und organisatorische Herausforderungen und verdeutlicht an Beispielen wie Marcel Reich-Ranicki und Günter Grass, welche Grenzen sich in der Praxis ergeben. Ziel bleibt dabei größtmögliche Offenheit und Nachnutzbarkeit innerhalb der bestehenden rechtlichen Rahmenbedingungen.

 
9:00 - 10:30Vorträge 2: Kontrollierte Vokabulare und Normdaten
Ort: HS 218
 

Kontrollierte Vokabulare, Thesauri, Klassifikationen, Normdaten? Ein Ordnungs- und Bewertungssystem für wissenschaftliche Vokabulare: Das Register für historische und objektbezogene Vokabulare und Normdaten (R:hovono)

Julian Freytag1,2,3, Katja Liebing1,2,3, Katrin Moeller1,2,3, Anne Purschwitz1,2,3, Olaf Simons1,2,3, Marius Wegener1,2,3,4

1Martin-Luther-Universität Halle-Wittenberg, Deutschland; 2Historisches Datenzentrum Sachsen-Anhalt; 3NFDI4Memory; 4Universitäts- und Landesbibliothek Sachsen-Anhalt

Vokabulare und Normdaten gewinnen in der digitalisierten Welt an Bedeutung – im Rahmen der Entwicklung von Künstlicher Intelligenz, Natural Language Processings, aber auch bei Datenkuration, -erschließung, -vernetzung und -analyse. So auch in den historisch arbeitenden Wissenschaften, in denen bereits viele Vokabulare erstellt werden. Damit wird es für Nachnutzende immer wichtiger, Vokabulare aufzufinden, wie auch einen schnellen Eindruck von ihrer Passfähigkeit gewinnen zu können. Dies ist jedoch in vielen Fällen nicht gegeben. Diverse Vokabulare stehen entweder noch nicht zur Verfügung, sind nicht auffindbar oder nicht ausreichend beschrieben. Sie entsprechen damit nicht den FAIR-Prinzipien und können nicht nachgenutzt werden.

Das Register R:hovono unterstützt digital vernetzte Forschungsdateninfrastrukturen, indem es einen Überblick über für die historisch arbeitenden Wissenschaften relevante Vokabulare gibt und die verstreut liegenden Informationen zusammenführt. Damit verbunden sollen Terminologien über Vokabulare begrifflich geschärft und mit einem Bewertungssystem kombiniert werden, um Nutzenden einen Eindruck von Qualität und Verwendungsszenarien zu ermöglichen. FactGrid gewährleistet als Wiki-Base Instanz sowohl die selbständige Eintragung als auch Abfrage der jeweiligen Vokabulare. Durch eine Webseite sind zudem niedrigschwellige Möglichkeiten der Suche, Filterung und Ausgabe des Registers gegeben.



WOKIE - FAIR in allen Sprachen: Ein automatisiertes, LLM-gestütztes Übersetzungssystem für SKOS-Thesauri

Felix Kraus, Danah Tonne

Karlsruher Institut für Technologie (KIT), Deutschland

Thesauri sind zentrale Werkzeuge in den Digital Humanities, um heterogene Forschungsdaten zu strukturieren, auffindbar zu machen und auszuwerten. Eine Veröffentlichung nach den FAIR-Prinzipien wird insbesondere durch Mehrsprachigkeit erheblich verbessert, da sie Nachnutzung und Auffindbarkeit über Sprach- und Ländergrenzen hinweg ermöglicht. Bisher wird dies jedoch nicht durchgängig umgesetzt: Manuelle Übersetzungen sind aufwändig und externe Dienste liefern teils nur ungenaue Fachübersetzungen. Vor diesem Hintergrund stellen wir WOKIE vor, ein Open-Source-Werkzeug zur automatisierten, kontextsensitiven Übersetzung von SKOS (Simple Knowledge Organization System)-Thesauri. WOKIE kombiniert frei wählbare Übersetzungsdienste wie Google Translate, Argos oder PONS mit Large Language Models (LLMs). Durch den Einbezug von Definitionen und Kontextinformationen wird eine hohe Übersetzungsqualität erreicht, was in einer ersten Evaluation gezeigt wurde. Das Werkzeug ist dabei auf handelsüblichen PCs lauffähig. Im Vortrag demonstrieren wir typische Herausforderungen bei der Übersetzung, diskutieren die Bedeutung von Mehrsprachigkeit für die FAIRness von Thesauri und reflektieren Fragen der Urheberschaft bei LLM-generierten Übersetzungen. Dabei liegt der Schwerpunkt auf dem praktischen Nutzen und den Herausforderungen im geisteswissenschaftlichen Forschungsalltag.



Wikibase-Instanz: FactGrid. Ein Serviceangebote für lebende Daten und Normdaten

Olaf Simons, Katrin Moeller

Institut für Geschichte, Martin-Luther-Universität Halle-Wittenberg, Deutschland

Kontrollierte Vokabulare, Linked Open Data und Normdaten sind zentrale Begriffe der FAIR-Communities. Zugleich bilden Normdaten nicht alle relevanten Daten ab, weil Sprachvarianten, Beschreibungen, zugeordnete Daten nicht integriert werden können. Zudem sind viele Terminologieservices für den Nutzer oder die Nutzerin wenig selbstbestimmt nutzbar. Bei der Wikibase-Instanz FactGrid gelingt die Integration von Daten und Normdaten unterschiedlicher Provenienzen, können Schnittstellen, Abfragesprachen und Ausgabeformate vielfältig genutzt werden. Anhand der Integration eines Vokabulars zur Normdatenimplementierung möchten wir aufzeigen, welche Chancen und Herausforderungen sich über diesen Zugang zu Linked Open Data ergeben. Als Beispiel dient die Implementation der „Ontologie der historischen, deutschsprachigen Amts- und Berufsbezeichnungen (OhdAB).

 
10:30 - 11:00Kaffeepause
11:00 - 12:30Vorträge 3: Digitale Editionen
Ort: Aula (R. 212)
 

Herausforderungen der WSRB-Edition als Web- und Buchausgabe - Die mittelniederdeutschen Spruchsammlungen ‚Künstlike Werltspröke‘ und ‚Eyn schön rimbökelin‘

Hellmut Braun2, Anne Gessing1, Robert Stephan3

1Rheinische Friedrich-Wilhelms-Universität Bonn; 2Universität Rostock; 3Universitätsbibliothek Rostock

Mit diesem Beitrag wird die Edition der mitttelniederdeutschen Spruchsammlungen ‚Künstlike Werltspröke‘ und ‚Eyn schön rimbökelin‘ aus dem 16. Jahrhundert präsentiert. Sie erfolgte auf der Basis von TEI. Aufbauend auf Transkriptionen aller acht bekannten Überlieferungsträger entstand die Edition von 849 Reimpaarsprüchen. In Verbindung mit einer gegenwartssprachlichen Übersetzung werden diese ausgehend von derselben Datengrundlage in zwei Ausgabeformaten veröffentlicht: als Buch- und als Webpublikation. Beide Formate zeichnen sich durch markante Unterschiede in der Gestaltung aus und bieten eigene Vorteile, dennoch barg dieser Prozess des Single Source Publishing auch gewisse Herausforderungen. Es werden zunächst Forschungsgegenstand und Datengrundlage vorgestellt; im Fokus stehen danach insbesondere die technische Realisierung sowie eine Bewertung der verwendeten Lösungen.



Vom Baum zum Netz. Digitale Editionen als Labeled Property Graphs

Max-Ferdinand Zeterberg1, Michelle Weidling1, Clemens Steinberger2, Tillmann Dönicke1, Noah Kröll2

1Niedersächsische Staats- und Universitätsbibliothek Göttingen, Deutschland; 2Georg-August-Universität Göttingen

Obwohl TEI-XML schon seit Längerem für die meisten digitalen Editionen als Erschließungsformat genutzt wird, wurden die Einschränkungen, die sich aus seiner Baumstruktur ergeben, in der Forschung bereits moniert. Mitunter bietet die strenge Baumstruktur nicht genügend Flexibilität, um alle zu erfassenden Phänomene und insbesondere Querverbindungen zwischen Text(teil)en oder Annotationen hinreichend abzubilden. Daher wurde in der Forschung diskutiert, ob die Erfassung von Editionsdaten in Graphdatenbanken nicht ein gangbarer Weg sei (Kuczera 2016, [S. 8]).

In unserem Beitrag stellen wir den im Projekt „Edition des ugaritischen poetischen Textkorpus“ (EUPT) entwickelten Ansatz vor, Editionsdaten als Labeled Property Graph (LPG) zu erfassen. Dabei gehen wir auf die projektspezifischen, aber auch generischen Anforderungen ein, die in die Modellierung des LPG eingeflossen sind, und stellen das entwickelte LPG-Modell sowie erste Erfahrungen mit den Graphdaten vor. Darüber hinaus gehen wir auch auf die Konversion von XML zu LPG und zurück in TEI-XML ein, um die Archivierbarkeit der erfassten Daten zu gewährleisten. Zum Schluss geben wir einen Ausblick auf die Entwicklung eines Editors für die LPG-native Datenerfassung.



Digitale Editionen im Dienst der Geisteswissenschaften: Strategien zur Gewinnung geisteswissenschaftlicher Nutzerinnen und Nutzer für Repositorien

Kathleen Neumann1, Robert Stephan2

1Verbundzentrale des GBV (VZG), Deutschland; 2Universitätsbibliothek Rostock

Für die Erfassung und Präsentation digitaler Editionen kommen unterschiedliche Softwarelösungen zum Einsatz. Aus unserer Sicht bieten Repositorien bereits viele wichtige Funktionalitäten für diesen Zweck. Aufbauend auf dem Open-Source-Repository-Framework MyCoRe entwickeln wir Konzepte und Strategien, um diese Vorteile für die geisteswissenschaftlicher Nutzerinnen und Nutzer besser nutzbar zu machen und die Verwendung von Repositorien in Editionsprojekten attraktiver zu gestalten. Ein zentrales Ziel ist dabei, das Repositorium bereits im Entstehungsprozess der Edition aktiv einzubinden und so als Werkzeug für die kollaborative Arbeit nutzbar zu machen.

Anhand ausgewählter Projektbeispiele untersuchen wir sowohl die Möglichkeiten der Datenübernahme mithilfe standardisierter Metadatenformate als auch die Anbindung bestehender Dienste wie TEI-Tools und Normdatenservices. Im Vortrag werden Infrastruktur und Datenflüsse vorgestellt, die das Zusammenspiel zeigen. Damit möchten wir den Weg hin zu einer strukturierten und schemakonformen Dateneingabe für digitale Editionen aufzeigen. Unser Beitrag versteht sich zugleich als Einladung zur Diskussion darüber, wie diese Strategien zur Umsetzung der FAIR-Prinzipien (auffindbar, zugänglich, interoperabel, wiederverwendbar) in den Digital Humanities beitragen können.

 
11:00 - 12:30Vorträge 4: FDM-Beratung und Data Literacy
Ort: HS 218
 

Templating FAIRification

Markus Schnöpf1, Josef Jeschke2

1Berlin-Brandenburgische Akademie der Wissenschaften; 2Universitäts- und Landesbibliothek Sachsen-Anhalt

Forschungs(meta)daten sollten unter den FAIR-Bedingungen publiziert werden. Um diesen Prozess zu steuern und zu vereinheitlichen, wurde im Zuge des Publikationsprozesses der Forschungsdaten des abgeschlossenen Akademienvorhabens Corpus Coranicum ein Formular entworfen, um diesen Prozess zu begleiten, zu dokumentieren und nachvollziehbar zu begleiten. Da sich dieses Vorgehen als sehr zielführend herausgestellt hat, wurde das Formular zu einem Online-Tool umgebaut. Dabei ist wichtig, dass einerseits individuelle Rahmenbedingungen abgebildet werden können, andererseits aber auch allgemeine Umstände, die projektübergreifend vorhanden sind, mit dem Dokumentationskatalog erfasst werden können. Diesen FAIRifikationsprozess möchten wir auf der Konferenz erstmalig vorstellen und mit den Konferenzteilnehmenden diskutieren.



Guidelines für Forschungsdatenmanagement Beratungsservices - ein community-getriebener Ansatz

Patrick Helling1, Marina Lemaire2

1Data Center for the Humanities (DCH), Universität zu Köln, Deutschland; 2Servicezentrum eSciences, Universität Trier, Deutschland

Nicht erst seit den Entwicklungen hin zu einer Nationalen Forschungsdateninfrastruktur (NFDI) gibt es innerhalb der deutschen Forschungslandschaft verschiedenste FDM-Einrichtungen, die Forschende insbesondere bei Fragen rund um das Forschungsdatenmanagement (FDM) beraten und unterstützen. Diese Services sind in unterschiedlichen organisatorischen Kontexten eingebettet und verfügen über individuelle institutionelle Ausrichtungen. Während die Beratungsservices i.d.R. recht ähnlich sind, gibt es noch keine Standards und Good Practices bezüglich der Umsetzung solcher Services. Mit unserem Beitrag stellen wir Guidelines für die Planung, Umsetzung und Dokumentation von FDM-Beratungsgesprächen vor. Sie beruhen auf der Konsolidierung bestehender FDM-Beratungsservices und dienen als erster Ausgangspunkt für eine weiterführende Diskussion über eine notwendige Professionalisierung von und Qualitätssicherung bei FDM-Beratungsgesprächen. Mit unserem Beitrag möchten wir die Diskussion über die Formalisierung und Standardisierung von FDM-Beratungsservices initiieren und in einen aktiven Austausch mit der FDM-Community eintreten. Im Fokus steht dabei u. a. die Auseinandersetzung mit Möglichkeiten der Adaption der Guidelines in unterschiedlichen organisatorischen und inhaltlichen FDM-Beratungskontexten.



Vom Bedarf zur Didaktik – Das Kompetenzprofil als strukturprägendes Element für die Entwicklung einer Data-Literacy-Infrastruktur

Marina Lemaire1, Anne Voigt2

1Servicezentrum eSciences der Universität Trier, Deutschland; 2Freie Universität Berlin, Deutschland

In der Task Area 4 „Data Literacy“ des NFDI4Memory-Konsortiums entsteht aus einer initialen Bedarfserhebung ein disziplinspezifisches Kompetenzprofil, das weit über seine ursprüngliche Funktion hinauswirkt. Der Vortrag zeigt, wie dieses Profil als strukturierendes Element für eine ganze Data-Literacy-Infrastruktur dient: Es bildet die Grundlage für einen Kompetenzrahmen, der historisch arbeitende Disziplinen adressiert, dient der Konzeption modularer Selbstlernkurse und Präsenzformate, strukturiert ein kontrolliertes Vokabular zur Erschließung von Lehr- und Lernmaterialien im Katalog „HISTOCAT“ und wirkt auch in das entstehende Lehrbuch hinein.

Auf dieser Grundlage formulieren wir die These, dass ein solches Kompetenzprofil nicht nur didaktische Orientierung bietet, sondern als strategisches „Betriebssystem“ für nachhaltige FDM-Entwicklung fungieren kann – wenn es konsequent und systematisch genutzt wird.

Der Vortrag richtet sich an alle, die an der Schnittstelle von Forschung, Lehre und Infrastruktur arbeiten, und lädt dazu ein, FDM-Service-Entwicklungen neu zu denken: nicht modular, sondern systemisch – mit dem Ziel, konzeptuelle Kohärenz als Schlüssel nachhaltiger Portfoliopflege wahrzunehmen.

 
12:30 - 14:00Mittagspause
14:00 - 15:30Vorträge 5: Semantisierung von Forschungsdaten
Ort: Aula (R. 212)
 

Semantische Klassifikation lexikographischer Inhalte mithilfe künstlicher Intelligenz neu denken? Ergebnisse einer Studie zur Erweiterung des Bayerischen Wörterbuchs um Ontologie mithilfe von LLMs.

Manuel Raaf, Ines Röhrer

Bayerische Akademie der Wissenschaften, Deutschland

In diesem Beitrag stellen wir eine umfangreiche Studie zur semantischen Klassifikation von Wörterbuchinhalten vor. Ziel der Experimente war es, herauszufinden, inwiefern große Sprachmodelle – sogenannte Large Language Models (LLMs) – den redaktionellen Prozess in einem Wörterbuchprojekt zielführend unterstützen könnten. Neben diversen offenen Modellen wurden kommerzielle Produkte (u.a. ChatGPT) genutzt, um zehntausende Bedeutungsangaben des „Bayerischen Wörterbuchs“ um onomasiologische Sachgruppen zu erweitern. Hierfür erprobten wir verschiedene Prompts, die von den kommerziellen Produkten bzw. auf spezieller KI-Hardware des Leibniz-Rechenzentrums ausgeführt wurden. Zur Evaluation bedienten wir uns eines Goldstandards, der aus der Sachgruppenzuordnung des „Pfälzischen Wörterbuchs“ extrahiert wurde. Die Ergebnisse zeigen, dass kommerzielle Modelle in über 90% der Fälle eine korrekte Sachgruppenzuordnung erreichen, Open-Source-Modelle jedoch nur geringfügig schlechter abschneiden – sofern das offene Sprachmodell nicht stark quantisiert ist und die Anweisungen wohlüberlegt sind. Die Studie belegt einerseits die potenzielle Eignung generativer KI zur Unterstützung redaktioneller Prozesse in der Wörterbucharbeit. Andererseits verdeutlicht sie zugleich die Notwendigkeit menschlicher Qualitätskontrollen. Im Ausblick zeigen wir, wie die besten Ergebnisse in einen webbasierten Workflow integriert werden und diskutieren zukünftige Schritte zur weiteren KI-gestützten lexikographischen Arbeit.



Restaurierungswissen digital vernetzen – Von textlichen Dokumentationen zu maschinenlesbaren Begriffen

Kristina Fischer, Lasse Mempel-Länger

Leibniz-Zentrum für Archäologie, Deutschland

Die Konservierung und Restaurierung kulturhistorischer Objekte ist eine interdisziplinäre Wissenschaft, die geistes- und naturwissenschaftliche Ansätze vereint und den Umgang mit heterogenen Daten aus verschiedenen Disziplinen erfordert. Ein zentrales Problem ist dabei die fragmentierte Datenstruktur und die uneinheitliche Terminologie, was Datenaustausch und Zusammenarbeit erschwert.

Um diesen Herausforderungen zu begegnen, wurde am Leibniz-Zentrum für Archäologie (LEIZA) im Rahmen von NFDI4Objects ein "Konservierungs- und Restaurierungsfachthesaurus für archäologische Kulturgüter" entwickelt. Dieser basiert auf dem Simple Knowledge Organization System (SKOS) und folgt den FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable).

Der Thesaurus ermöglicht die systematische Erfassung von fachspezifischem Wissen durch die semantische Verknüpfung hierarchischer, äquivalenter und assoziativer Beziehungen zwischen Fachbegriffen. Die Entwicklung dieses Thesaurus wurde methodisch und technisch durch eine eigene Webanwendung unterstützt, die Validierung, Visualisierung und kollaborative Weiterentwicklung des Vokabulars ermöglicht. Der validierte Thesaurus kann als RDF-Turtle oder JSON-Datei exportiert und in zentrale Repositorien integriert werden. Version 1.0 des Konservierungsthesaurus soll demnächst öffentlich verfügbar sein und exemplarisch zeigen, wie semantische Technologien das Forschungsdatenmanagement optimieren können.



RO-crate the Manuscripts! Infrastruktur für Automatisierung und semantische Standardisierung von geisteswissenschaftlichen Forschungsdaten

Hagen Peukert

Universität Hamburg, Deutschland

Institutionelle Forschungsdatenrepositorien zeigen insbesondere bei der Bereitstellung von Daten aus geisteswissenschaftlichen Disziplinen hohe Skalierungseffekte, da zwar eher kleine Datenmengen, aber sehr unterschiedliche Datenformate, Datenmodelle und Datenstandards von vielen, unterschiedlichen Forschungsprojekten in einer Anwendung zugänglich gehalten werden können. Umso mehr stellt sich bei der Nachnutzung dieser Daten die Frage nach einer automatisierten Visualisierung und Kuration. Eine mögliche Lösung ist, die Forschungsdateninfrastruktur so zu gestalten, dass bereits zum Zeitpunkt der Erstellung der Daten die bekannten Probleme der Datenkuration gelöst werden. Dies geschieht durch entsprechende Schnittstellen und Standards.

 
14:00 - 15:30Vorträge 6: Korpora und Karten
Ort: HS 218
 

Partiell reusable: Zur Nachnutzung von Quellen für Korpora der Computational Literary Studies

Ulrike Henny-Krahmer

Universität Rostock, Deutschland

Digitale Textkorpora spielen in den Computational Literary Studies (CLS) als einem stark auf empirische und quantitative Untersuchungen ausgerichteten Feld eine wesentliche Rolle. Zugleich ist der Aufwand, umfangreiche Korpora, die den Ansprüchen der CLS genügen, gänzlich neu zu erstellen, hoch, wenn nicht nur ein digitaler Volltext wünschenswert ist, sondern auch mindestens strukturelles Markup und grundlegende Metadaten zu den Texten. Die CLS sind als Teilbereich der Digital Humanities inzwischen so weit etabliert, dass es schon einige Textkorpora gibt, die nachgenutzt werden können und dass es möglich ist, neue Korpora für eigene Forschungszwecke auf der Grundlage bereits existierender Textsammlungen aufzubauen. Reusability kann also praktiziert werden und wird es auch, wobei häufig einzelne Teile bestehender Korpora, also einzelne Texte oder Textgruppen, übernommen werden. Dabei bleibt es jedoch wichtig, dass die Quellen bei historischen Korpora bis zu ihrem analogen Ursprung hin zurückverfolgt werden können und dass die Vorarbeiten anderer angemessen gewürdigt werden. Der Vortrag untersucht am Beispiel des Community-Korpus European Literary Text Collection (ELTeC), in dem narrative Texte verschiedener Sprachen versammelt sind, welche Teile für die Erstellung des Korpus aus anderen Quellen wiederverwendet wurden und wie gut dies dokumentiert wurde.



Text Corpus in Collaboration - A balance between customized and standardized approach

Vandana Jha1, Philipp Tögel1, Danah Tonne1, Frederik Elwert2, Henning Gebhard2, Makar Fedorov2, Stefanie Dipper2

1Karlsruhe Institute of Technology, Deutschland; 2Ruhr University Bochum, Deutschland

The Text Encoding Initiative (TEI) compliant Extensible Markup Language (XML) is the predominant standard for creating, encoding and managing digital textual data in the field of Digital Humanities (DH). The Collaborative Research Center (CRC) 1475, “Metaphors of Religion,” leverages this robust and flexible standard to develop a shared infrastructure that facilitates metaphor analysis across diverse religious traditions, languages and time periods ranging from 2,000 BCE to the present day. While DH projects often begin with an emphasis on data reusability, selecting widely accepted standards and licenses accordingly, many research contexts instead start from a scholarly interest, requiring the integration of heterogeneous sources not originally intended for reuse. The information infrastructure subproject (INF) utilizes TEI-XML to harmonize and integrate texts from various subprojects, accommodating variations in language, editorial processes, and file formats within a flexible yet standardized schema. This method establishes a core framework that ensures structural and semantic consistency while allowing extensions tailored to specific subproject needs. Such a balanced and scalable approach supports comprehensive metaphor analysis, maintaining uniformity across the collaborative environment while accommodating specialized requirements. This paper explores the development of this framework, emphasizing how it effectively bridges the gap between standardization and customization in digital textual corpus.



Historische Geodatenbanken - Thematische Karten systematisch erfassen und analysieren

Anastasia Bauch, Klaus Stein

KDWT Bamberg, Deutschland

Historische thematische Karten eignen sich besonders gut für die Digitalisierung in Geoinformationssystemen (GIS). Die Verschneidung dieser Geodaten verspricht neue Möglichkeiten der historischen Forschung mit Blick auf räumliche Komponenten sowohl überregional als auch für einzelne Ortschaften.

 
15:30 - 16:00Kaffeepause
16:00 - 17:30Postersession
Ort: Flurbereich / Konzilzimmer (R. 213) / Professorenzimmer (R. 214)
 

FAIR und Grün. Nachhaltigkeit im Forschungsdatenmanagement sichtbar gemacht und praktisch gedacht

Anne Baillot1, Mareike König2, Anja Gerber3, Lisa Rosendahl4

1DARIAH, Berlin; 2Deutsches Historisches Institut Paris; 3Klassik Stiftung Weimar; 4Beethoven-Haus Bonn

In den letzten Jahren ist angesichts der Dringlichkeit des Klimaschutzes ein wachsendes Bewusstsein für den Ressourcenverbrauch in Forschung und Lehre entstanden. Vielen Forschenden ist jedoch weiterhin unklar, wie sie ihre digitalen Projekte ökologisch nachhaltig betreiben können. Bislang fehlen verbindliche oder breit akzeptierte Leitlinien, wie ökologische Nachhaltigkeit im Datenmanagement konkret umgesetzt werden kann. Dieses Poster stellt die im April 2025 auf zenodo veröffentlichten Empfehlungen der AG Greening DH zum ressourcenschonenden Umgang mit Forschungsdaten vor. Zwei zentrale Schwerpunkte stehen im Fokus: die Vereinbarkeit mit den FAIR- und CARE- Prinzipien sowie fünf praxisnahe Kernempfehlungen (Nachnutzung maximieren, Speicherplatz effizient nutzen, Metadaten optimieren, Veröffentlichung nachhaltig planen, Langzeitarchivierung bewusst steuern). Im Austausch mit den Posterbesucherinnen und – besuchern möchten wir diskutieren, wie diese Empfehlungen bei der Erstellung von Datenmanagementplänen konkret umgesetzt werden können - insbesondere durch eine nachhaltigkeitsorientierte Interpretation bestehender deutscher und europäischer DMP-Templates. Ziel ist es, die Empfehlungen weiterzuentwickeln, gezielt zu verbreiten und Rückmeldungen aufzugreifen, um mögliche Unklarheiten zu identifizieren und praxisnah zu adressieren.



Forschungsdatenmanagement DOP: DMP, ODD, PROV-O

Johannes Ioannu, Frederike Neuber

Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland

Die Edition Jean Paul – Sämtliche Briefe digital erschließt die gesamte überlieferte Korrespondenz des Dichters, seiner Familie, Freund:innen und intellektuelle Weggefährt:innen. Sie verbindet die editorische Tradition der von Eduard Berend initiierten Druckausgabe mit drei Teilprojekten zur Digitalisierung, Vernetzung und Metadatenanreicherung der Briefe. Angesichts der umfangreichen, heterogenen Daten ist deren Dokumentation für ihre Wiederverwendbarkeit und Kohärenz im Gesamtkorpus substanziell. Das Paper erörtert einen Ansatz, der drei komplementäre Werkzeuge und Methoden verbindet: Datenmanagementplan (DMP), ODD-Schemata und Provence Ontology (PROV-O). Ihre Verzahnung ermöglicht eine FAIR-konforme Dokumentation komplexer Datenlebenszyklen, erweitert bestehende Praktiken und fördert den Austausch über eine nachhaltige Forschungsdatendokumentation.



Geisteswissenschaften granular denken. Umgestaltung und Diversifizierung des Wissenschaftsbereichs auf forschungsdaten.info.

Cora Krömer1, Maximilian Heber2, Béla Koch1, Martin Spenger3

1Karlsruher Institut für Technologie; 2Universität Konstanz; 3Ludwig-Maximilians-Universität München

forschungsdaten.info ist die zentrale deutschsprachige Informationsplattform zum Forschungsdatenmanagement (FDM). Das Portal bietet allgemeine, fachübergreifende Informationen zum FDM sowie Texte zu Disziplinspezifika, regionalen Angeboten und Praxistipps. Eine Auswahl des Angebots wurde zusätzlich ins Englische übersetzt. Die Struktur der disziplinspezifischen Angebote auf forschungsdaten.info wird zurzeit in zweierlei Hinsicht weiterentwickelt: So prüft die Redaktion zum einen für jeden Wissenschaftsbereich, ob eine granularere Gliederung in Einzelfächer vor dem Hintergrund eines stetig steigenden Angebots sinnvoll ist. Für den Wissenschaftsbereich Geisteswissenschaften bedeutet dies, dass er in Einzelfächer wie Literaturwissenschaften, Sprachwissenschaften und Kulturwissenschaften unterteilt wird. Zum anderen ist geplant, dass jeder Bereich die darin enthaltenen Informationen zu relevanten NFDI-Konsortien, Unterstützungsangeboten und weiteren fachlich einschlägigen Services sowie Literaturhinweise auf je einer Seite kompakt bündelt. Die neue Struktur der einzelnen Seiten soll dabei die Informationen pro Wissenschaftsbereich anwendungsfreundlich am Forschungsdatenlebenszyklus orientiert gliedern. Das Poster zeigt, welche Angebote zukünftig für die Geisteswissenschaften geboten werden und wie die neue Struktur gestaltet wird.



Der Nutzen von Ontologien für die Konservierungs- und Restaurierungsdokumentation: CIDOC CRM als Brücke zwischen Kulturerbe und digitaler Welt

Gudrun Schwenk1, Kristina Fischer2

1Interessengemeinschaft für Semantische Datenverarbeitung e.V. (IGSD), Deutschland; 2LEIZA - Leibniz-Zentrum für Archäologie, Mainz, Deutschland

Die Digitalisierung bietet große Potenziale für die Konservierung und Restaurierung von Kulturgütern, stellt die Fachgemeinschaft jedoch zugleich vor neue Herausforderungen im Umgang mit wachsenden, heterogenen Datenmengen. Konservierungs- und Restaurierungsdaten werden bislang kaum als eigenständige Forschungsdaten wahrgenommen oder systematisch nachgenutzt. Fehlende Struktur, uneinheitliche Metadaten und divergierende Fachsprachen behindern den Wissensaustausch. Ontologien bieten hier eine Lösung: Als semantische Werkzeuge ermöglichen sie die standardisierte, disziplinübergreifende Beschreibung komplexer Zusammenhänge. Besonders die Ereigniszentriertheit des CIDOC Conceptual Reference Model (CRM) eignet sich zur strukturierten Erfassung von Restaurierungsmaßnahmen, da es Zustandsveränderungen als zeitlich begrenzte Ereignisse modelliert. Der Beitrag stellt eine Zusammenarbeit zwischen SODa und NFDI4Objects/TaskArea 4 zur Entwicklung einer generischen Ontologie vor, die konservierungsrelevante Daten interoperabel und langfristig nutzbar machen soll. CIDOC CRM fungiert dabei als gemeinsame Sprache zwischen geisteswissenschaftlichen und technischen Disziplinen und fördert die nachhaltige Integration restaurierungs- und konservierungsbezogener Informationen in die Forschungsinfrastruktur.



Forschungsdaten für die Lehre nachnutzen - Sammlung von Einsatzszenarien in der geschichtswissenschaftlichen Lehre

Marina Lemaire1, Anne Voigt2

1Servicezentrum eSciences der Universität Trier, Deutschland; 2Freie Universität Berlin, Deutschland

Datensätze aus Forschungsprojekten zeichnen sich durch hohe wissenschaftliche Qualität, Validität und Replikabilität aus und sind deshalb besonders wertvoll für die geschichtswissenschaftliche Lehre. Sie enthalten vielfältige Datenformate wie Quellen, Transkripte oder Simulationsdaten und können daher für praxisnahes Lernen in Bereichen der Datenkompetenz und des Forschungsdatenmanagements genutzt werden. Je nach Aufbereitungsgrad der Daten, den Lehrzielen, eingesetzten Methoden und Tools können Studierende mit Analysemethoden, Visualisierungen und Skripten den Umgang mit Datenverarbeitungswerkzeugen sowie Prozesse wie Bereinigung, Standardisierung und Analyse üben und erlernen.

Die TA4 Data Literacy der NFDI4Memory will den Einsatz von Forschungsdaten in der geschichtswissenschaftlichen Lehre durch die Bereitstellung didaktisierter Lehrskizzen fördern. Mit Hilfe eines Templates werden Datensatzinformationen und Lehrszenarien strukturiert erfasst und als OER zur Verfügung gestellt.

Lehrende profitieren von den flexiblen, hochwertigen Materialien, die sich leicht in verschiedene Kursformate integrieren lassen. Dies erleichtert die Vorbereitung und fördert die kritische Reflexion digitaler Methoden in der Geschichtswissenschaft.

Das Poster stellt das Vorhaben vor und zeigt Beispiele auf.



Zerstörtes Kulturgut – Die kontextualisierte Aufbereitung von kulturellen Forschungsdaten

Vivien Christin Wolter1, Julia Alili2

1Universität Trier, Deutschland; 2Universität Trier, Deutschland

Das Forschungsprojekt ‚Zerstörtes Kulturgut‘ wurde 2022 als Reaktion auf den Angriffskrieg Putins auf die Ukraine an der Universität Trier von Studierenden entworfen, um das Bewusstsein für Kulturgüter, die im Rahmen von Kriegen zerstört wurden, zu schärfen. Im Mittelpunkt steht dabei die Erhebung von Forschungsdaten zur Kontextualisierung der Kulturgüter, ihrer kulturellen Bedeutung und ihrer Zerstörung innerhalb der Kriege. Ein besonderes Augenmerk liegt auf weniger bekannten Kulturgütern, die nicht auf der Roten Liste der UNESCO stehen, um deren Erhalt und Bedeutung zu fördern. Um die Daten systematisch und objektiv abzubilden, soll eine Ontologie verwendet werden. Allerdings kann aktuell das CIDOC CRM nicht für unsere Daten verwendet werden. Im Rahmen der Konferenz sollen die Herausforderungen der Verwendung von CIDOC CRM diskutiert und die Ontologie potentiell Erweitert werden hinsichtlich der Dokumentation laufender Konflikte und intentionaler Zerstörung als kriegerische Handlung. Mit diesem Ansatz möchte das Projekt einen Beitrag zur Bewahrung des kulturellen Erbes und zur Stärkung der digitalen Methoden in den Geisteswissenschaften leisten.



Data Science Services an der UB Mannheim

Larissa Will, Renat Shigapov, Thomas Schmidt

Universitätsbibliothek Mannheim, Deutschland

Das Forschungsdatenzentrum der Universitätsbibliothek Mannheim bietet ein breit gefächertes Angebot an digitalen Services, Plattformen und Unterstützungsformaten für die digitalen Geisteswissenschaften und im Bereich der Data Literacy. Dazu zählen spezialisierte Services wie MAObjects zur Präsentation digitaler Objektsammlungen mit Omeka sowie die automatisierte Spracherkennung mit whisply zur Un-terstützung von Forschungsprojekten. Als Teil des Kompetenzzent-rums OCR fördert die UB Mannheim gemeinsam mit der UB Tübingen die automatisierte Texterkennung – sowohl innerhalb der Universität als auch für externe Vorhaben. Ergänzt wird das Portfolio durch digita-le Lernangebote wie MaDaLi² und durch projektbasierte Lehrinitiativen zur Förderung datenbezogener Kompetenzen. Ziel ist es, sowohl For-schende als auch Studierende im Umgang mit digitalen Methoden zu qualifizieren und die nachhaltige Verankerung digitaler Infrastrukturen in der wissenschaftlichen Praxis zu unterstützen. Der Beitrag gibt ei-nen Überblick über das vernetzte Service- und Projektangebot der UB Mannheim, stellt ausgewählte Anwendungsszenarien vor und disku-tiert zentrale Herausforderungen an der Schnittstelle von Infrastruktur, Qualifizierung und methodischer Innovation.



Plattformübergreifendes FDM innerhalb einer international arbeitenden Institution. Ein Praxisbeispiel.

Eva-Maria Gerstner, Nanette Rißler-Pipka

Max Weber Stiftung (MWS), Deutschland

Forschungsdatenmanagement-Software wie RDMO unterstützt Forschende bei der Erstellung von Datenmanagementplänen und der frühzeitigen Planung zum Umgang mit Forschungsdaten. In hierzu angebotenen Fragenkatalogen werden sowohl übergeordnete Projektinformationen als auch Metadaten zu den einzelnen Datensätzen abgefragt. Diese Informationen werden zumindest teilweise auch in anderen Forschungsinfrastrukturen wieder benötigt. Um Mehrfacheingaben zu vermeiden bedarf es der Anbindung an standardisierte Schnittstellen. Die Max Weber Stiftung hat für ihre Institute eine zentrale Infrastruktur aufgebaut, welche RDMO mit weiteren Komponenten des institutionellen FDM verbindet. In diesem Beitrag werden die einzelnen Komponenten dieses plattformübergreifenden FDM-Workflows erläutert.



Bridging the Gap between Accessibility and Protection. A Data Hub to host multimedia ethnographic research data on vernacular Mantra practices in Global Southern Asia adhering to the CARE-Principles

Edda Sofie Schwarzkopf1, Steve Kaminski1, Michael Derntl1, Geraldine Quénéhervé1, Andrea Acri4, Carola Lorea1, Borayin Larios2, Finnian M. M. Gerety3

1Universität Tübingen, Deutschland; 2Universität Wien, Österreich; 3Oxford University, UK; 4École Pratique des Hautes Études, Frankreich

The transdisciplinary MANTRAMS project aims at gathering and producing large amounts of highly sensitive ethnographic audiovisual research data on religious practices and life in politically charged and socially contested spaces. Despite different publications and discipline-specific standards outlining guidelines when dealing with different aspects of such data, gaps and blindspots between them be­come overly apparent when adapting these expectations into transna­tional yet locally situated academic practice. Guided by a strong ethical commitment to transparency, data protection and sustainibility, our RDM stack needs to comply with local expecations as well as the GDPR and the FAIR and CARE principles. Our efforts to build infrastructure capable of hosting vulnerable and valuable data throughout the upcoming years illustrate the depth of customisation necessary to create a safe and practical Data Hub, even when utilising as much existing data infrastruc­ture as possible. It serves as a case study of decisionmaking in imple­mentation and highlights the complexities and ineptitudes of RDM guide­lines when stepping outside of traditional Humanities domains.



Von Träumen zu realistischen Anwendungsfällen: Zum Einsatz von KI in der Museumsdokumentation

Joshua Ramon Enslin

Freies Deutsches Hochstift / Frankfurter Goethe Museum, Deutschland

In diesem Poster werden verschiedene bisher erprobte Einsatzszenarien und Anwendungen für KI-Tools zur Steigerung der Effizienz und Effektivität der Sammlungserschließung in Museen – und damit der Datenqualität der verfügbargemachten Sammlungsdaten – vorgestellt und diskutiert. Die vorgestellten Fallstudien werden auf ihre Eignung geprüft und in Hinsicht auf die inhärenten Schwächen und Stärken des Einsatzes von KI kritisch reflektiert, um einerseits Aussagen über den sinnvollen Zeitpunkt und Kontext eines Einsatzes von KI in der Erschließungsarbeit – und die Wahrscheinlichkeit gegebenenfalls nötiger Nachbearbeitungen – und andererseits allgemeinere Schlüsse zum Potential des Einsatzes von KI im Rahmen der Sammlungserschließung zu ermöglichen.



Dateibenennung, Literaturverwaltung, Webarchivierung: Beratungsrealitäten der Data Stewards an geisteswissenschaftlichen Fakultäten der Universität Wien

Monika Bargmann

Universität Wien, Österreich

Das Poster stellt die Spezifika der Beratungs- und Lehrtätigkeit in den Geisteswissenschaften vor dem Hintergrund des Data Steward-Programms der Universität Wien vor. Seit der Einführung des Programms im Jahr 2022 beraten Data Stewards Forschende disziplinspezifisch entlang des gesamten Datenlebenszyklus und entwickeln passgenaue Kursformate, vor allem für Doktorand*innen. Im Rahmen des zunächst auf drei Jahre angelegten Pilotprojekts wurden vier Stellen geschaffen, je zwei in den Geisteswissenschaften und in den Lebenswissenschaften.

Es zeigten sich schon früh spezifische Beratungsschwerpunkte: In den Geisteswissenschaften sind Anfragen zur Archivierung von Websites und Webapplikationen häufig. Auch die hohe Nachfrage nach Grundlagen zur Datenorganisation sowie nach Tools zur Literaturverwaltung und digitalen Notizen sticht hervor. Ethische Aspekte, etwa die CARE-Prinzipien, der kritische Umgang mit kontrollierten Vokabularen oder der XAIR-Begriff, stoßen in den Kursen auf großes Interesse. In den Geisteswissenschaften ist zudem immer wieder eine kontextbezogene Erläuterung oder Anpassung des Begriffs „Forschungsdaten“ notwendig. Zugleich wird deutlich, dass die neue Forschendengeneration zunehmend konkrete Vorstellungen davon har, was „Daten“ in ihrer Arbeit sind.

Die Erfahrungen aus Wien können anderen Forschungseinrichtungen als Orientierung für den Aufbau disziplinsensibler Data Steward-Strukturen dienen.



Geodatenspezifisches Forschungsdatenmanagement am Beispiel eines Kartenportals: Konzeption eines Fragenkatalogs für RDMO

Arkadiusz Danszczyk1, Diego Siqueira2, Johanna Wrede2

1Martin-Opitz-Bibliothek, Herne, Deutschland; 2Ruhr-Universität Bochum, Universitätsbibliothek Bochum, Digital Humanities Center, Deutschland

Dieser Beitrag erläutert die Methodik und inhaltliche Konzeptionierung eines geodatenspezifischem Fragenkatalogs sowie dessen Integration im Research Data Management Organiser (RDMO) der UA Ruhr im Rahmen eines interdisziplinären Kooperationsprojekts zwischen der Universitätsbibliothek Bochum (Digital Humanities Center) und der Martin-Opitz-Bibliothek.

Das Ziel des Kooperationsprojekts besteht aus der Entwicklung eines Kartenportals, das die Kartenbestände beider Einrichtungen für die Forschung nutzbar macht. Die Digitalisierung von historischen Karten wirft dabei die Frage nach fachspezifischen Datenmanagementstrategien für raumbezogene Forschungsdaten auf, die durch die Digitalisierung und Bereitstellung der Materialien entstehen.

Besonders relevante Aspekte sind dabei die Unterscheidung zwischen Metadaten und Forschungsdaten im Kontext historischer Karten, typische geodatenspezifische Datenformate, technische und rechtliche Rahmenbedingungen der Datenverarbeitung und -veröffentlichung sowie Herausforderungen der Langzeitarchivierung.

Der Katalog soll ein Unterstützungsangebot für einen nachhaltigen Umgang mit raumbezogenen Forschungsdaten darstellen und sich besonders an Forschende in den Bereichen Geschichte, Geographie, Digital Humanities und Bibliothekswissenschaften richten, die mit digitalem Kartenmaterial arbeiten.

Insbesondere um eine offene Bereitstellung des Katalogs zu ermöglichen, wird eine Weiterentwicklung des Katalogs durch das Feedback von Nutzerinnen und Nutzern angestrebt. Dieser Beitrag versteht sich demnach als Impuls für die Diskussion über domänenspezifische DMP-Vorlagen im Bereich der Geodaten und lädt die Community ein, sich an der Weiterentwicklung zu beteiligen.



Integration von Theorie und Praxis in der FDM-DH Ausbildung

Elisabeth Steiner, Gunter Vasold

Universität Graz, Österreich

Die Integration von Inhalten aus dem Forschungsdatenmanagement in fachspezifischen Curricula wird zwar empfohlen, jedoch großteils als noch nicht als ausreichend umgesetzt betrachtet. Dieser Beitrag beschreibt die facheinschlägige Integration von Theorie und Praxis in der Ausbildung angehender Digital Humanists an der Universität Graz.



Entwicklung eines Integrationskonzepts für ein FDM-spezifisches Curriculum für Promovierende

Philipp Kandler, Sibylle Söring

Freie Universität Berlin, Deutschland

Das Poster präsentiert erste Erkenntnisse aus AP5 im Projekt FDLink – Rahmenbedingungen für Kulturwandel und gemeinsame Servicelandschaft stärken und stellt sie zur Diskussion. Ziel des APs ist die Entwicklung eines FDM-spezifischen Curriculums für Promovierende, das niedrigschwellig in Kurse zur guten wissenschaftlichen Praxis (GWP) integriert werden kann. Ausgangspunkt des APs ist, dass GWP-Kurse für Promovierende zunehmend verpflichtend sind. FDM ist ein integraler Bestandteil der GWP, wird in den Kursen bisher allerdings nicht systematisch vermittelt. Durch die Integration des FDM-Curriculums in GWP-Kurse kann eine flächendeckende Vermittlung von FDM an Promovierende erfolgen, ohne dass zusätzliche Verpflichtungen eingeführt werden müssen. In einem ersten Schritt wird ein Integrationskonzept erarbeitet, das zusammen mit den vorbereitenden Recherchen – bestehende Verpflichtungen im Bereich FDM und GWP für Promovierende, aktuelle Vermittlung von GWP und FDM in den Geisteswissenschaften an der FU – im Poster vorgestellt wird. Ein Schwerpunkt sind dabei die disziplinenspezifischen Inhalte und Anforderungen, die ein generisches Curriculum für Promovierende in den Geisteswissenschaften ergänzen sollten.



Forschungsdaten suchen, finden und nachnutzen: Der NFDI4Memory Data Space als föderierte Infrastruktur für die historisch arbeitenden Geisteswissenschaften

Felix Bach2, Sandra Göller2, Timo Holste1, Sarah Rebecca Ondraszek2

1Landesarchiv Baden Württemberg (LABW); 2FIZ Karlsruhe - Leibniz-Institut für Informationsinfrastruktur (FIZ)

Das Poster stellt das technische Design und die Implementierungsstrategie

des NFDI4Memory Data Space vor, zeigt sein

Potenzial für die Harmonisierung des Datenzugriffs und der Wiederverwendung

in der historischen Forschung auf und gibt einen Ausblick auf

die geplante Entwicklung von RADAR4Memory als maßgeschneiderten

Repository-Service für die historisch arbeitenden Geisteswissenschaften.

Der NFDI4Memory Data Space dient dem Konsortium NFDI4Memory als

zentrale technische Komponente für die Unternehmung, die Fragmentierung

von Daten und Diensten in den historisch arbeitenden Geisteswissenschaften

zu überwinden, indem es sie in eine kohärente, nachhaltige

und an den FAIR Prinzipien orientierte digitale Forschungsumgebung integriert.

Er bietet einen einheitlichen Ansatz für die Suche nach, den Zugriff

auf und die Wiederverwendung von Daten über institutionelle und

disziplinäre Grenzen hinweg Damit ist der NFDI4Memory Data Space ein

wichtiger Schritt zum Aufbau einer digital integrierten Forschungsdateninfrastruktur

für Gedächtniseinrichtungen, Forschungsprojekte und weiteren

Infrastruktureinrichtungen durch die Förderung von FAIR-Prinzipien

und standardisierten Service-Schnittstellen.



Aus dem Off: Ringvorlesungen und ihr Nutzen als Forschungsdatenquelle in den Digital Humanities

Erik Renz

Universität Rostock, Deutschland

Dieser Posterbeitrag stellt einen neuartigen methodischen Ansatz zur systematischen Erfassung und Analyse von Ringvorlesungen und anderen Vortragsreihen im Bereich der Digital Humanities vor. Obwohl derartige Veranstaltungsformate im deutschsprachigen Raum in den letzten anderthalb Jahrzehnten an Bedeutung gewonnen haben, fehlt bislang eine strukturierte Grundlage für ihre wissenschaftliche Auswertung. Mittels eines XML-basierten Modells werden Vortragsreihen hierarchisch abgebildet und zentrale Metadaten – wie z. B. Vortragstitel, -datum, Referent*innen, institutionelle Anbindung und Präsentationsmodi – erfasst. Ziel ist es, Erkenntnisse zu thematischer Diversität, institutioneller Vernetzung und Distributionsmustern abzuleiten. Ausgehend von ersten Visualisierungen der geografischen und zeitlichen Verteilung von 41 erfassten Vorlesungsreihen wird das Potenzial einer anschließenden Social-Network-Analyse skizziert, in der Kollaborationsnetzwerke und thematische Cluster sichtbar gemacht werden sollen. Mithin versteht sich der Beitrag als Impuls zur Etablierung von Ringvorlesungen und vergleichbaren Formaten als relevante Quelle für Forschungsdaten.



Semantische Meta-Suche zur Pfarrerschaft im deutschsprachigen Raum

Thomas Riechert1, Wolfgang Krogel2, Jan Brademann3, Birgit Hoffmann4, Heinrich Löber5, Christina Neuß6, Johann Peter Wurm7

1Hochschule für Technik, Wirtschaft und Kultur Leipzig, Deutschland; 2Landeskirchliches Archiv Berlin, Deutschland; 3Archiv der Evangelischen Landeskirche Anhalts, Deutschland; 4Landeskirchliches Archiv Braunschweig, Deutschland; 5Landeskirchliches Archiv Stuttgart, Deutschland; 6Landeskirchenarchiv Eisenach, Deutschland; 7Landeskirchliches Archiv Schwerin, Deutschland

Vorgestellt wird das Projekt Meta-Pfarrerbuch, welches ausgewählte Informationen aus unterschiedlichen als Datenbanken vorliegenden Pfarrerbücher in eine Metadatenbank zusammenführt und eine Repositorien-übergreifende semantische Meta-Suche realisiert. Das Meta-Pfarrerbuch nutzt ein domänspezifisches Vokabular und es ersetzt nicht die einzeln currierten Datenbanken.



Analoge Forschungsdaten neu aufbereitet: Die Digitalisierung und Erschließung einer lexikografischen Belegsammlung im Projekt DEMel

Caroline Müller1,2, Robert Stephan3, Karsten Labahn3

1Universität Rostock, Lehrstuhl für Romanische Sprachwissenschaft; 2Universität Rostock, Juniorprofessur für Digital Humanities; 3Universitätsbibliothek Rostock

Um analoge Forschungsdaten gemäß den FAIR-Prinzipien aufzubereiten, ist oft ihre Digitalisierung und Erschließung notwendig. Ein Beispiel hierfür ist das Archiv des Diccionario del Español Medieval (DEM). Nach der Veröffentlichung der ersten drei Bände des Wörterbuchs musste das Projekt 2007 aus finanziellen Gründen eingestellt werden, wodurch die etwa 865.000 Zettel umfassende Belegsammlung ungenutzt blieb. Das seit 2016 von der DFG geförderte Projekt Diccionario del Español Medieval electrónico (DEMel) hat sich zum Ziel gesetzt, diese Forschungsdaten zugänglich zu machen. Die gesamte Belegsammlung wurde dafür digitalisiert und die wesentlichen Informationen manuell erfasst. Das Ergebnis ist eine Datenbank mit knapp 700.000 Belegen zu über 32.000 Stichwörtern, die über ein Webportal und eine REST-API frei zugänglich ist. Bis 2026 sollen die Daten zudem in standardisierten Formaten bereitgestellt und in öffentlichen Repositorien publiziert werden, um ihre Interoperabilität und Nachnutzbarkeit zu verbessern. Das Poster zeigt, wie die analogen Forschungsdaten digitalisiert und aufbereitet worden sind.



Digitale Edition neu denken - Eine Plattform zur Konstellationsforschung in der Philosophie

Natascha Naumann

Universität Rostock, Deutschland

Die Edition soll eine Forschungsplattform zur Konstellationsforschung sein. Der Wiener Kreis beeinflusste von 1918-1938 zahlreiche wissen-schaftliche und kulturelle Entwicklungen, deren Ideen bis heute nach-wirken. Bisherige Forschung konzentrierte sich auf einzelne Persön-lichkeiten, obwohl der Kreis als hierarchiefreies denkendes Kollektiv agierte. Die Konstellationsforschung eignet sich als Methode, um die komplexen intellektuellen Verflechtungen historisch und systematisch zu erfassen. Basis der Forschung soll ein Korpus aus circa 30 über-wiegend unveröffentlichten Nachlässen sein. Das Material soll digitali-siert, automatisch transkribiert und mittels Named Entity Recognition im TEI-Format erschlossen werden. Für die Forschungsplattform ist ein hybrides Datenmodell geplant: eine Graphdatenbank mit integrier-ten TEI-XML-Entitäten zur Repräsentation vernetzter Entitäten und komplexer Beziehungen. Im Unterschied zu herkömmlichen digitalen Editionen, die primär authentische Texte bereitstellen, soll diese Editi-on eine dynamisches Forschungsplattform sein, die Quelltexte und In-terpretationen vereint und auf einer benutzerfreundlichen Oberfläche vielfältige automatisierte Suchen in Texten, im Graphen oder kombi-niert ermöglicht. Der Hauptgraph soll zuerst mit schon bekannten Re-lationen befüllt werden und dann durch neue erkannte Relationen und Instanzen in einem kollaborativen, dokumentierten Prozess durch die Forschenden erweitert werden. Bei der Datenverarbeitung sollten öko-logische und ethische Aspekte berücksichtigt werden, besonders bei KI-Anwendungen. Soweit möglich soll bestehende Software einge-setzt oder weiterentwickelt werden.



25 Jahre MyCoRe – Forschungsdaten in MyCoRe-Repositorien

Wiebke Oeltjen1, Kathleen Neumann2, Robert Stephan3

1Universität Hamburg, RRZ, MyCoRe-Geschäftsstelle; 2Verbundzentrale des GBV (VZG); 3Universitätsbibliothek Rostock

Im Jahr 2025 feiert die MyCoRe-Community das 25-jährige Bestehen der Open-Source-Software MyCoRe. Auf der diesjährigen FORGE-Konferenz soll das Poster neue Portale und Repositorien mit Forschungsdatenbezug zeigen und Weiterentwicklungen des MyCoRe-Frameworks im Bereich des Forschungsdatenmanagements benennen. MyCoRe ist den Grundsätzen treu geblieben, vielseitig einsetzbar, anpassbar und nachhaltig zu sein.

Das Ziel der MyCoRe-Community ist es, mit dem Software-Framework eine Basis für zukunftssichere Repositorien bereitzustellen, die sich gut in Forschungsdateninfrastrukturen integrieren lassen. MyCoRe gewährleistet die Umsetzbarkeit der FAIR-Prinzipien. Demnach lassen sich mit dem MyCoRe-Framework Repositorien aufbauen, die die Kriterien Auffindbarkeit, Zugänglichkeit, Interoperabilität und Wiederverwendbarkeit von Forschungsdaten erfüllen.

Auf dem Poster sollen exemplarisch Anwendungen genannt werden, die das MyCoRe-Framework als Basis verwenden. Es wird gezeigt, wie die Anwendungen auf unterschiedliche Art und Weise (z.B. Schnittstellen, Datenmanagement-Pläne) in die Forschungsdateninfrastruktur integriert sind.



Datenmanagementplan als Bildungserfahrung: ein Konzept für ein Open Educational Resource

Stefan Trajković-Filipović

Freie Universität Berlin, Deutschland

Diese Posterpräsentation befasst sich mit der Konzeption einer Open Educational Resource (OER), die einen umfassenden Überblick über die Datenmanagementpläne (DMP) für das Forschungsdatenmanagement in den Geisteswissenschaften bietet. Die vorgeschlagene OER soll die Diskussionen über Datenmanagement in den Geisteswissenschaften bereichern, indem sie die spezifischen Herausforderungen der Geisteswissenschaften adressiert, die in den Richtlinien oft nicht berücksichtigt werden. Sie wurde in Anlehnung an die Empfehlungen der DFG zum Umgang mit Forschungsdaten entwickelt und wird durch Erkenntnisse aus verschiedenen DMP-Beispielen sowie aus der Literatur zu praktischen Datenmanagement-Szenarien ergänzt. Die OER wird wesentliche Themen wie Datenbeschreibung, Speicherstrategien, ethische Überlegungen sowie Rollen und Ressourcen im Datenmanagement abdecken. Die Ressource wird als Jupyter Notebook entwickelt und interaktive Elemente wie Entscheidungs- und Umsetzungssimulationen und Anwendungsszenarien enthalten, um die Nutzenden aktiv einzubinden. Letztendlich zielt diese OER darauf ab, kritisches Denken über Datenmanagementpraktiken zu fördern und Forschende in die Lage zu versetzen, ihre Strategien zu reflektieren und effektiv durch die Komplexität des Managements verschiedener Datentypen zu navigieren. Diese OER trägt zur Stärkung der Datenkompetenz in den Geisteswissenschaften bei und fördert ein tieferes Verständnis für die Herausforderungen des Forschungsdatenmanagements.



Von alten Daten und neuen Apps. Aufbereitung regionalsprachlicher Daten am Forschungs-zentrum Deutscher Sprachatlas

Lisa Dücker, Robert Engsterhold, Georg Oberdorfer

Forschungszentrum Deutscher Sprachatlas, Philipps-Universität Marburg, Deutschland

Am Forschungszentrum Deutscher Sprachatlas werden seit nunmehr 150 Jahren Daten auf dem Feld deutscher Regionalsprachenforschung erhoben, ausgewertet, archiviert und infolge zur Verfügung gestellt. Der Vortrag besteht aus der Vorstellung zweier aktueller Vorhaben hieraus: Im hauseigenen Fachrepositorium LinguRep werden verschiedenste Datensätze mit Schwerpunkt auf die deutschsprachige Variationslinguistik archiviert und der Fachcommunity sowie der interessierten Öffentlichkeit für die Nachnutzung zur Verfügung gestellt. Außerdem werden durch den Aufbau von digitalen Plattformen (Apps) Möglichkeiten geschaffen, um historische Daten wie die Erhebungsbögen für den Sprachatlas des Deutschen Reichs (Wenkerbögen) oder das Hessen-Nassauische Wörterbuch online frei zur Verfügung zu stellen. Gleichzeitig bieten diese Apps mithilfe von Tools zur Transliteration die Gelegenheit zur weiteren Aufarbeitung der Daten inkl. Citizen Science und für einen neuen Blick auf die alten Sprachdaten. Mit den beiden Vorhaben wird der Schritt in einen innovativen Umgang mit Forschungsdaten getätigt, der auch aktualisierte Standards im Datenumgang sowie deren Anreicherung berücksichtigt und - wo noch nicht vorhanden - mitbestimmen soll.

 
Datum: Freitag, 26.09.2025
9:00 - 10:30Vorträge 7: Software und Code als Forschungsdaten
Ort: Aula (R. 212)
 

Software Requirements for Qualitative Interview Data: A Participatory Approach

Sabina Mollenhauer

Universität Vechta, Deutschland

The presentation outlines the results of an initial collaborative, ethnographic, grounded-theory-based requirement engineering process. This process marks the first phase of an iterative research software engineering project, which will continue with software development and collaborative user-testing. The initial requirement engineering has yielded requirements, a traceability map, and potential use cases. These requirements can be re-contextualized to their foundational data, including field notes and interview transcripts through the traceability mapping. This mapping facilitates both forward and backward traceability throughout the iterative software development process, serving as a key quality criterion in research software engineering. The rich context data in connection with requirement statements facilitate the development of software use cases that integrate existing research practices with technological solutions. Traceability mapping also enables detailed process modelling tailored to the specific case of FAIR qualitative interview transcript data preparation.



Nachhaltigkeitsstrategien für Forschungssoftware

Philip Schildkamp1, Patrick Helling2

1Cologne Center for eHumanities (CCeH), Universität zu Köln, Deutschland; 2Data Center for the Humanities (DCH), Universität zu Köln, Deutschland

In diesem Beitrag zu den laufenden Bestrebungen des Erhalts digitaler Forschungsergebnisse und insbesondere Forschungsapplikationen möchten wir unseren pragmatischen Ansatz zur Nachhaltigkeit von Forschungssoftware am Cologne Center for eHumanities (CCeH) und Data Center for the Humanities (DCH) vorstellen und diskutieren. Dabei stützen wir uns auf etablierte Herangehensweisen und versuchen unsere Strategien im Kontext unserer lokalen Gegebenheiten und limitierten Ressourcen soweit zu formalisieren, dass Forscher*innen eindeutige Entscheidungskriterien und Arbeitsabläufe hinsichtlich der Nachhaltung ihrer Forschungsergebnisse und -software bereits während deren Entwicklungsphase bereitgestellt werden können. Unser Ziel ist dabei einerseits Transparenz zu schaffen und andererseits Mittel einzusparen, die wir in den operativen Erhalt der nachgehaltenen Projekte investieren.



Kann LLM generierter Code FAIR sein? Herausforderungen für das Forschungsdatenmanagement

Sebastian David Schiller-Stoff, Leona Elisabeth Münzer

Universität Graz, Österreich

Die zunehmende Integration von LLM-basierten Programmierwerkzeugen wie GitHub Copilot oder JetBrains AI markiert einen Paradigmenwechsel in der Softwareentwicklung. Im Zentrum steht dabei das Konzept des „Vibe-Coding“, bei dem Nutzer:innen Ideen in natürlicher Sprache formulieren und KI-Assistenten die technische Umsetzung übernehmen. Dies erleichtert zwar den Zugang zur Programmierung und steigert die Produktivität, wirft jedoch im Kontext der Digital Humanities neue Herausforderungen auf – insbesondere hinsichtlich der Behandlung von KI-generiertem Code als Forschungsdaten gemäß den FAIR-Prinzipien. Die technische Qualität dieses Codes leidet häufig unter mangelnder Wartbarkeit, fehlenden Metadaten und Lizenzunsicherheiten, was seine Auffindbarkeit und rechtssichere Zugänglichkeit einschränkt. Zudem widersprechen unsichere Bibliotheken, inkonsistente Coding-Standards und potenzielle Sicherheitsrisiken grundlegenden Anforderungen an Interoperabilität und Wiederverwendbarkeit. Ohne gründliche Nachbearbeitung durch qualifiziertes Fachpersonal drohen technische Schulden, die eine nachhaltige Integration in digitale Forschungsinfrastrukturen erschweren. Ob LLM-generierter Code als FAIR gelten kann, hängt daher entscheidend von der Qualitätssicherung und verantwortungsvollen Nachnutzung ab – ein Aspekt, der im wissenschaftlichen Umgang mit KI-gestützter Softwareentwicklung stärker berücksichtigt werden muss.

 
9:00 - 10:30Vorträge 8: Metadaten für Theater, musikalische Werke und Editionen
Ort: HS 218
 

Modellierung theaterinszenatorischer Merkmale in Wikidata

Vivien Christin Wolter

Universität Trier, Deutschland

Der Vortrag und das darin angesprochene Forschungsvorhaben widmen sich der Modellierung von Theaterinszenierungen mit Fokus auf das Geschehen auf der Bühne – ein Aspekt, der bisher in der digitalen Theaterforschung weitgehend unberücksichtigt blieb. Während existierende Projekte vor allem Metadaten zu Aufführungen und beteiligten Akteur:innen erfassen, setzt dieses Vorhaben an Theaterinszenierungen und ihren Daten an. Bühnenbilder, Kostüme, Requisiten und dramaturgische Konzepte sollen strukturiert erfasst und modelliert werden. Theaterinszenatorische Merkmale bilden den Schwerpunkt des Datenmodells, welches am „WikiProject Performing Arts“ ansetzt und dieses erweitert. Das entwickelte Datenmodell ist exemplarisch anhand mehrerer Inszenierungen von Ferdinand von Schirachs Stück „Terror” auf einer Wikibase-Instanz umgesetzt. Die SPARQL-Abfragen ermöglichen zudem detaillierte Ausgaben der erfassten theaterinszenatorischen Merkmale. Bei dem Vorhaben ergeben sich Herausforderungen durch eine sehr heterogene Quellensituationen sowie durch die Flüchtigkeit und Subjektivität von Theateraufführungen, durch welche eine Inszenierung erst sichtbar wird. Dennoch eröffnet das Projekt neue Perspektiven. Neben der retrospektiven Analyse und dem Vergleich von Inszenierungen können langfristig auch quantitative Auswertungen bspw. zu geschlechtsspezifischen Besetzungen, Rezeptionen oder dramaturgischen Strategien erfolgen. So schafft das Vorhaben eine interdisziplinär anschlussfähige Grundlage an der Schnittstelle der Theaterwissenschaft und Digital Humanities.



Gender-bezogene Daten in musikwissenschaftlichen Werkverzeichnissen: Anreicherung, Sichtbarkeit und Lücken in MEI

Annabella Schmitz, Kristina Richts-Matthaei

Akademie der Wissenschaften und der Literatur | Mainz, Deutschland

Mit zunehmend digital erstellten Werkverzeichnissen von Komponist:innen entstehen immer mehr Korpora an musikwissenschaftlichen Forschungsdaten im Datenformat der Music Encoding Initiative (MEI), die perspektivisch als Basis für die Auswertung übergreifender Forschungsfragen genutzt werden könnten. Gleichzeitig zeigt sich, dass zentrale Informationen – etwa zum Geschlecht der beteiligten Personen – bislang nicht strukturiert erfasst werden können. Der Beitrag zeigt, wie das Datenformat strukturell angepasst werden müsste, um genderrelevante Informationen anhand der Daten automatisiert zu generieren und diese Informationen dann in die MEI-Daten selbst zu integrieren.

Anhand der am Centre for Digital Music Documentation (CDMD) betreuten Werkverzeichnisse wird ein praxisnaher Workflow zur Erhebung und Verknüpfung dieser Informationen vorgestellt. Zusätzlich wird die Diskussion zu einer notwendigen strukturellen Erweiterung von MEI angeregt, um die Sichtbarkeit von Frauen und geschlechterbezogene Fragestellungen in der digitalen Musikwissenschaft besser zu unterstützen.

Die Auszeichnung solcher Informationen ist entscheidend, um künftig groß angelegte, vergleichende Analysen innerhalb eines europaweiten musikwissenschaftlichen Metadatenkorpus durchführen zu können und damit neue Perspektiven auf historische Rollenverteilungen zu eröffnen.



Suchen, sammeln, schichten, vernetzen. Ein Metakatalog mit Mehrwert

Daniela Schulz1,2, Tobias Gradl3, Leon Fruth3

1Herzog August Bibliothek Wolfenbüttel; 2Universität zu Köln, Deutschland; 3Otto-Friedrich-Universität Bamberg

Wissenschaftliche Ressourcen auffindbar zu machen und deren Forschungsdaten projekt- bzw. institutionenübergreifend nutzen zu können, stellt aktuell noch eine Herausforderung dar. Um zumindest den ersten Schritt zu erleichtern und einen zentralen Zugang zu bieten, wurde mit der Text+ Registry ein Meta-Katalog für Ressourcen unterschiedlicher Datendomänen entwickelt, der eine Brückenfunktion erfüllt. Der Beitrag skizziert die dahinterstehenden methodischen Überlegungen und das architektonische Design. Der Fokus liegt dabei auf dem Einspielen, Verknüpfen und Anreichern von (Meta)Daten aus der Domäne der Editionen, mit dem Ziel, durch die Schichtung von Informationen aus verschiedenen Provenienzen sowie der Möglichkeit händischer Kuration möglichst gehaltvolle und FAIRe Ressourcenbeschreibungen zu erstellen.

 
10:30 - 11:00Kaffeepause
11:00 - 12:30Vorträge 9: Forschungsdaten als wissenschaftliche Publikationen
Ort: Aula (R. 212)
 

Peer Review von Forschungsdaten am Beispiel der Zeitschrift für digitale Geisteswissenschaften

Martin de la Iglesia, Robin-Martin Aust, Martin Wiegand

Zeitschrift für digitale Geisteswissenschaften (ZfdG.de) / HAB Wolfenbüttel, Deutschland

Der Beitrag reflektiert anhand des kürzlichen eingeführten Beitragsformats der Data Paper über die Nachnutzung und Qualitätssicherung publizierter Forschungsdaten. Die Data Papers der ZfdG stehen an der Schnittstelle von Forschungsdaten und Fachartikel; im Sinne der FAIR-Prinzipien lenken diese einheitlich strukturierten Beiträge die Aufmerksamkeit auf bereits publizierte Forschungsdatensets, beschreiben und kontextualisieren diese und erleichtern so deren Nachnutzung.

Im Fokus des Beitrags steht insbesondere das Post-Publication-Reviewverfahren, das die Veröffentlichung der Data Paper, das einen zentralen Beitrag zur Qualitätssicherung der Beiträge wie auch der dazugehörigen Daten leistet. Anhand der vorliegenden Gutachten soll kritisch analysiert werden, ob ein solches Begutachtungsverfahren grundlegend für geisteswissenschaftliche Forschungsdaten geeignet ist. Es soll herausgearbeitet werden, wie gut der Reviewprozess funktioniert und wo dessen Chancen, Herausforderungen und Risiken liegen. Zudem wollen wir ebenfalls näher auf verwandte Formate und Publikationsorgane sowie die dazugehörigen Gutachten und Reviewprozesse eingehen und u.a. untersuchen, auf welche Kriterien in den Evaluationen besonderes Gewicht gelegt wurde, um hierauf aufbauend über weitere Implikationen auch für unsere eigenen Publikationsformate und Begutachtungsprozesse zu reflektieren.



Wie kann der Wert von non-paper research outputs (NPROs) gesteigert werden? - Ein kollaborativer Ansatz

Patrick Helling, Kerstin Jung, Steffen Pielström

Institut für deutsche Philologie, Universität Würzburg, Deutschland

Die Publikation von Forschungsdaten und -ergebnissen als Output von Forschungsprojekten ist ein wesentlicher Bestandteil des Forschungsdatenmanagements. Gut dokumentierte, auffindbare und nachnutzbare Forschungsergebnisse (non-paper research outputs - NPROs) sind dabei Ausgangspunkt für die Entwicklung neuer Forschungsfragen, Kollaborationen und grundsätzlich ein Motor wissenschaftlichen Fortschritts. Allerdings erfahren Publikationen von NPROs weniger Anerkennung im wissenschaftlichen Betrieb als klassische Journal-Artikel, die durch ein Peer Review-Verfahren gegangen sind. Obwohl sie den Kern von Wissenschaft darstellen, spielt die Publikation von NPROs nahezu keine Rolle, bspw. als Faktor bei der Einwerbung von Drittmitteln oder im Rahmen von Bewerbungsverfahren. Um diesem Ungleichgewicht zu begegnen, bedarf es einer aktiven Einforderung und Bewertung von Datenpublikationen durch Drittmittelgeber und Forschungseinrichtungen und v.a. technische und inhaltliche Bewertungskriterien. Nur so kann ein notwendiger Kulturwandel innerhalb der Wissenschaft in Bezug auf die Publikation von NPROs etabliert werden, an dem sich alle Stakeholder - Drittmittelgeber, Forschende, Forschungseinrichtungen - beteiligen müssen. Mit unserem Beitrag leisten wir einen Anstoß für die Steigerung der Wertigkeit von NPRO Publikationen und möchten gemeinsam mit der Community auf der FORGE-Konferenz in den Dialog treten, um diesbezüglich Ansätze und Ideen auszuloten. Schließlich kann dies nur gemeinsam in einer aktiven Forschungscommunity gelingen.

 

 
Impressum · Kontaktadresse:
Datenschutzerklärung · Veranstaltung: FORGE 2025
Conference Software: ConfTool Pro 2.6.154
© 2001–2025 by Dr. H. Weinreich, Hamburg, Germany