Conference Agenda
Overview and details of the sessions of this conference. Please select a date or location to show only sessions at that day or location. Please select a single session for detailed view (with abstracts and downloads if available).
|
Session Overview |
| Session | ||
Donnerstag 4: Donnerstag 4 – Poster Session 2
| ||
| Presentations | ||
Project StoryMachine: Spatial Hypertext as a Tool for Contemporary, Transcultural Folkloristics 1Universität Regensburg; 2Hof University of Applied Sciences; 3Ludwig-Maximilians-Universität München; 4University of Hertfordshire; 5University of the Arts London; 6University of London This paper introduces StoryMachine (AHRC/DFG: AT 153/1-1), a newly funded transdisciplinary project (2025-2028) conducted jointly by six research groups in Germany and the UK, which aims to develop an innovative digital infrastructure to preserve, explore, and democratize access to folklore traditions and vernacular storytelling practices around the world, with a particular focus on German- and English-speaking communities. Recognizing folklore as a cornerstone of shared cultural identity, the project addresses critical challenges in archival practices, and in particular the lack of interactive, dynamic, accessible and inclusive tools for exploring both traditional and emerging folk narratives. Existing approaches to digital folklore archiving remain largely static, focusing on isolated collections without fostering meaningful exploration, collaboration, or analysis. StoryMachine redefines these paradigms by integrating spatial hypertext and recommender systems to create a visually dynamic, user-centered interface. Von Hexenjagd und Datenextraktion: LLM-gestützte Übersetzung frühneuhochdeutscher Gerichtsakten zur Verbesserung inhaltlicher Analysen 1Universität Bern, Schweiz; 2Universität Bern, Schweiz Das Projekt entwickelt eine Pipeline zur Übersetzung frühneuhochdeutscher Textdokumente ins moderne Standarddeutsch, um sie für aktuelle NLP-Verfahren nutzbar zu machen. Ausgangspunkt ist die sprachhistorisch präzise Transkription von Hexenprozessakten, segmentiert und mit stabilen IDs versehen. Mit Gemini werden die Texte zuerst semantisch normalisiert, was unter anderem präzisere Topic-Modellierung ermöglicht. Erste Resultate zeigt, dass zentrale Themen erhalten bleiben, moderne Fassungen aber klarere Kategorien liefern. Künftige Ausbaustufen der Pipeline könnten NER, Sentiment-Analyse oder historische Dialekterkennung umfassen, wofür Austausch mit der Community geplant ist. Langfristig soll eine durchsuchbare Oberfläche mit vollständiger Rückverfolgbarkeit entstehen. Towards Affective Analysis of Animals in Poetry Universität Passau, Deutschland Animals in literary texts reflect deeper cultural attitudes and values. This abstract presents ongoing work towards large-scale analysis of affective and metaphorical representations of animals in (historical) poetry. Digitalisierung und 3D-Rekonstruktion der paläolitischen Zwillingsbestattung von Krems-Wachtberg – Anforderungen an ein transdisziplinäres Datenbankkonzept 1Universität für Weiterbildung Krems, Österreich; 2Karl Landsteiner Universität für Gesundheitswissenschaften, Krems, Österreich; 3Österreichisches Archäologisches Institut, Österreichische Akademie der Wissenschaften, Österreich; 4Naturhistorisches Museum Wien Die jungpaläolithische Doppelbestattung von Krems-Wachtberg mit den ältesten genetisch bestätigten eineiigen Zwillingen steht im Mittelpunkt eines interdisziplinären Forschungsprojekts (2023-2026) zur digitalen Rekonstruktion prähistorischer Begräbnisse. Seit 2023 werden 539 Knochenfragmente mittels µCT gescannt und durch Algorithmen präzise positioniert, um eine vollständige virtuelle Rekonstruktion zu ermöglichen. Ziel ist eine datenbankgestützte Analyse der Morphologie der paläolithischen Neugeborenen und der Begräbniskontexte. Die digitale Plattform, die im Mittelpunkt des Posters steht, integriert 3D-Modelle, Scanparameter und kontextuelle Daten in mehreren Nutzer:innenebenen für Fachwissenschaft, Öffentlichkeit und interaktive museale Vermittlung. Der Open-Source-Ansatz sowie ein strukturierter Datenmanagementplan ermöglichen inter- und transdisziplinäre Nutzung und sichern die Langzeitarchivierung. So wird ein bedeutender Fund nicht nur wissenschaftlich aufbereitet, sondern auch nachhaltig für Forschung und Gesellschaft zugänglich gemacht. Ist das Baukunst oder kann das weg? – Entwicklung einer Augmented-Reality-Tour zur Architektur und Geschichte der Universität zu Köln Universität zu Köln, Deutschland In Anknüpfung an das Projekt Virtueller Campus und dessen AR-App nutzen wir Augmented Reality (AR) für die Vermittlung von Informationen zum kulturellen Erbe, konkret zur Architektur und Geschichte der Universität zu Köln. Eine AR-Tour soll Studierenden und anderen Besuchenden des Campus die ursprünglichen Gestaltungsideen u. a. hinter einem brutalistischen Ensemble von Universitätsgebäuden näher bringen, welche heute durch Umbauten oder Verfall teils nicht mehr direkt erkennbar sind. AR soll diese Vermittlung interaktiv und anschaulich gestalten, indem in AR dargestellte 3D-Rekonstruktionen historischer Zustände von Gebäuden und Plätzen den direkten Vergleich von Vergangenheit und Gegenwart ermöglichen und die AR-Tour zum Erkunden des Campus anregt. Reconstructing and Analysing a forgotten World: A 3D-Positioning and Annotation System for the Paintings of the Kucha Project Erik Radisch Sächsische Akademie der Wissenschaften zu Leipzig, Deutschland This project introduces a 3D-based annotation and positioning system for the wall paintings of the Buddhist cave complexes in Kucha (Xinjiang, China). Many of these artworks are now dispersed across global collections, detached from their original architectural context. Using 3D-models, we reconstruct their spatial arrangement by applying a register-based coordinate system. These registers, implemented via 2D SVG-layouts, can be edited for each cave wall and are projected onto the corresponding surfaces in the 3D model. Each registered position includes a preview image of the associated painting. In-picture polygon annotations are integrated and linked to a hierarchical taxonomy displayed within the 3D model. Selecting an element highlights all paintings with those annotations, enabling both contextual and content-driven exploration. In the next phase, our annotations will be projected directly onto 3D surfaces for more precise visual analysis. This method offers a novel approach to spatially integrated 2D annotation in the Digital Humanities. „Nomen est… wer?“ FB Germanistik, Universität Salzburg, Österreich Das Poster präsentiert ein hybrides Analysemodell zur Erhebung und Interpretation von Benennungsformen – insbesondere Antonomasien und Epitheta – in der mittelhochdeutschen Epik. Im Zentrum steht ein semi-automatisiertes Python-Tool, das aus TEI-kodierten Texten Benennungen extrahiert, typologisiert, normalisiert und kollationiert. Ziel ist es, poetologische Strategien der Figurenbenennung systematisch sichtbar zu machen. Antonomasien, verstanden als charakterisierende Umschreibungen anstelle von Eigennamen, eröffnen besondere Einblicke in Figurenkonstitutionen literarischer Text. Die Kombination aus maschinengestützter Erhebung und hermeneutischer Auswertung erlaubt nicht nur die Analyse großer Textkorpora, sondern fördert neue Einsichten in narratologische Muster, die Einzeltextlektüren verborgen bleiben. Das Poster versteht sich als Beitrag zur methodologischen Verschränkung von Text und Daten– und als Einladung zur Diskussion über die Potentiale digitaler Philologie. Ganz viel Drama auf einen Blick: Der »Distant-Reading Showcase«, zehn Jahre danach 1Freie Universität Berlin, Deutschland; 2Universität Potsdam, Deutschland; 3Tbilissi, Georgien; 4Ruhr-Universität Bochum, Deutschland Vor genau zehn Jahren haben wir den Versuch unternommen, einen Showcase für die literaturwissenschaftliche Netzwerkanalyse zu entwickeln, der die damals noch wenig bekannten (empirischen) Zugangsweisen und (quantitativen) Forschungsansätze der Digital Humanities buchstäblich veranschaulichen sollte. Ergebnis war ein Konferenzposter für die DHd2016 in Leipzig, auf dem vor allem Daten zu sehen waren. Es war explizit als Forschungsbeitrag gedacht, wurde mittlerweile über 8.500 Mal angesehen und knapp 2.000 Mal heruntergeladen. Neben Erwähnungen in wissenschaftlichen Publikationen gab es auch Auseinandersetzungen mit dem ästhetischen Schauwert einer solchen Darstellung anlässlich der Frage, wie man das inhärent Immaterielle der Literatur museal ausstellen könnte. Für die DHd2026 wollen wir ein medial und methodologisch reflektiertes, in Hinblick auf die Daten- und Infrastrukturgrundlage aktualisiertes »Reenactment« dieses Posters vornehmen. Paredros: Eine interaktive Entwicklungsumgebung zur grammatikbasierten Analyse semi-strukturierter Quellen Friedrich-Schiller-Universität Jena, Deutschland Das Poster präsentiert „Paredros“, eine interaktive Entwicklungsumgebung zur grammatikbasierten Analyse semi-strukturierter Quellen wie Register oder Regesten. Während gängige Ad-hoc-Skripte oder Blackbox-Verfahren oft an mangelnder Transparenz und Reproduzierbarkeit scheitern, sind formale Grammatiken für Geisteswissenschaftler:innen bislang schwer zugänglich. Paredros schließt diese methodische Lücke, indem es auf dem leistungsfähigen Parser-Generator ANTLR aufsetzt und dessen Komplexität hinter einem innovativen visuellen Frontend verbirgt. Das Herzstück ist ein interaktiver „Videorecorder“ für den Parsing-Prozess, der eine schrittweise, transparente Analyse und sogar die interaktive „Reparatur“ von Grammatiken ermöglicht – eine Funktionalität, die über Standard-Entwicklertools hinausgeht. Der Ansatz gewährleistet eine vollständige und nachvollziehbare Datenextraktion im Sinne der FAIR-Prinzipien und etabliert die Grammatik selbst als explizites, menschenlesbares Forschungsergebnis. Es wird ein Workflow skizziert, bei dem LLM-gestützte Editoren und Paredros für einen robusten Analyseprozess Hand in Hand gehen. Spätantik-frühmittelalterliche Sammlungsüberlieferung im Graphen Universität Augsburg, Deutschland Das Poster präsentiert drei Ansätze zur digitalen Modellierung lateinischer Textsammlungen aus Spätantike und Frühmittelalter mittels Graphdatenbanken. Diese Sammlungen sind komplex, da sie meist rekonstruiert werden müssen, in Handschriften variieren und Texte in unterschiedlichen Ordnungen (historisch vs. systematisch) sowie verschiedenen Übersetzungsfassungen vorliegen. Drei Zugänge zur Modellierung, die vom Posterersteller erprobt wurden, werden vorgestellt: Dokumentenorientiert: Modellierung päpstlicher Briefüberlieferung durch Verknüpfung von Texten, Sammlungen und Handschriften als Knoten, um Überlieferungsmuster und Sammlungscluster zu identifizieren. Sammlungsorientiert: Vollständige Textabfolgen verwandter Sammlungen werden modelliert, um ähnliche Sequenzen zwischen verschiedenen Sammlungen aufzuzeigen. Verschiedene Lösungen für übersetzte Texte werden vorgestellt. Textintegrativ: Integration der Volltexte in die Datenbank und KI-gestützte Analyse (Claude) für Verschlagwortung und Mustererkennung. Eng geführte Prompts erwiesen sich als entscheidend, um vorschnelle Verallgemeinerungen zu vermeiden. Das Poster verbindet die methodischen Darstellungen mit geeigneten Visualisierungen. ASR4Memory. Automatische Transkription und domänenspezifisches Fine-Tuning von Spracherkennungsmodellen für die Geschichtswissenschaft 1FU Berlin, Universitätsbibliothek, Deutschland; 2Fachhochschule Nordwestschweiz, Fachbereich Mathematik und Physik, Schweiz Das Projekt „ASR4Memory“, gefördert durch das NFDI-Konsortium 4Memory, hat eine datenschutzkonforme, KI-gestützte Lösung zur Transkription historischer Audio- und Videoquellen auf Basis von „WhisperX“ entwickelt. Über eine benutzerfreundliche Weboberfläche können audiovisuelle Materialien hochgeladen und sicher verarbeitet werden. Die Anwendung ermöglicht eine hochwertige Transkription in über 30 Sprachen inklusive Sprecherdiarisierung, Satz- und Wortalinierung sowie Export in vielfältige Nachnutzungsformate. Zur Verbesserung der Transkriptqualität wurde ein domänenspezifisches Fine-Tuning des Whisper-Modells "Large-v3" mit anonymisierten, deutschsprachigen Oral-History-Daten durchgeführt. Die Evaluationsergebnisse, basierend auf WER-Berechnungen und LLM-basierten Fehleranalysen, zeigen eine erhebliche Verbesserung der Transkriptionsgenauigkeit sowie eine Abschwächung von Glättungseffekten auf, sodass die Nutzung des fine-getunten Modells eine wortgetreuere Transkription ermöglicht. Das Poster präsentiert die Systemarchitektur der Anwendung, ergänzt durch eine audiovisuelle Demonstration der Ergebnisse des Fine-Tunings vor Ort. Explainable AI in filmhistorischer Forschung 1Universität Tübingen, Deutschland; 2University of Applied Sciences St. Pölten, Österreich Mithilfe von Computer Vision und Machine Learning erforscht das Projekt AniVision die Stilistik von animierten Sequenzen in Gebrauchsfilmen aus Österreich, der BRD und der DDR (1945–1989). Untersucht wird ein Korpus von über 2000 Filmen und Fernsehsendungen in Kooperation mit österreichischen und deutschen Filmarchiven. Ziel ist es, ein Tool zu entwickeln, das Animation von Realfilm unterscheidet und verschiedene Animationsstile erkennt. Um Black-Box-Probleme zu vermeiden und Filmwissenschaftler:innen im Umgang mit dem Tool zu unterstützen, werden im Projekt Visualisierungsverfahren der Explainable AI (XAI) wie Grad-CAM eingesetzt. Grad-CAM zeigt als Heatmap, welche Bereiche eines Bildes für die maschinelle Klassifikation relevant sind. Für Filmwissenschaftler:innen werden dadurch Outputs nachvollziehbarer. Rhythmicalizer Revisited: Adapting Large Language Models for Rhythmic Classification of Free Verse Poetry 1Faculty of Informatics and Mathematics, OTH Regensburg, Germany; 2Department of Literary Studies, Freie Universität Berlin, Germany This work revisits the Rhythmicalizer project’s approach to classify German free-verse Poetry into prosodic categories using deep learning (Baumann et al., 2018). The rise of Large Language Models (LLMs) and foundation models pre-trained on vast amounts of text and speech begs the question whether these are more appropriate for poetic tasks than the original project’s multimodal GRUs. This study evaluates LLM and foundation model performance on the original corpus and compares them to the original classifier. Potenziale und Herausforderungen KI-gestützter Layouterfassung am Beispiel des „Deutschen Bühnen=Spielplan“ Österreichische Akademie der Wissenschaften (ÖAW), Österreich Das Poster stellt ein Erschließungsprojekt am Austrian Centre for Digital Humanities (ACDH) zu einer theaterwissenschaftlichen Quelle vor, die trotz ihres zentralen Werts für Literaturwissenschaft und Kulturgeschichte bislang nicht ins Digitale überführt wurde. Der „Deutsche Bühnen=Spielplan“ erschien 1896–1944, erfasste sämtliche Spielpläne deutschsprachiger Bühnen in Form von Kalenderlisten und dokumentiert somit die Aufführungsrealität der Moderne. Im Fokus steht die Bearbeitung der in Fraktur gedruckten Jahrgangsbände bis 1910. Ihr komplexes Layout kann mithilfe der erweiterten Funktionen der Layout-Analyse von Transkribus (Kombination von Field und Table Models) erfasst werden, um im nächsten Schritt Zeilen- und Texterkennungsmodelle zur automatischen Transkription der Tabelleninhalte zu nutzen. Langfristiges Ziel ist die Erstellung einer Webapplikation, die die Informationsdichte des „Bühnen=Spielplan“, der auch Angaben wie Übersetzungsversionen und Gastspiele enthält, zur Gänze abbilden soll und gleichzeitig als Anwendungsbeispiel von KI für die Erschließung ähnlicher, kulturgeschichtlich relevanter, aber layouttechnisch herausfordernder Quellen dienen kann. Computer Vision Analysis of War-Related Visual Culture: Patterns and Symbols in Russia-Ukraine Conflict Art Friedrich-Alexander-Universität Erlangen-Nürnberg, Germany The Russia-Ukraine conflict has generated an unprecedented volume of visual art spanning street murals, internet memes, children's drawings, and fine art across multiple languages and cultures. This poster presents ongoing research that employs artificial intelligence to analyze nearly 4,600 war-related images, demonstrating how computational methods can decode complex iconographic patterns in contemporary conflict art. Kontext-Engineering in einem Multi-Agenten-System zur Ontologiegenerierung für historische Quellen 1Friedrich-Schiller Univesität Jena; 2Akademie der Wissenschaften, Göttingen Das HisQu-Projekt stellt ein Multi-Agenten-System zur Ontologiegenerierung aus historischen Quellen wie dem Repertorium Germanicum vor. Zur Überführung impliziten Fachwissens in explizite Graphen verbindet es Context-Engineering mit einer hybriden Retrieval-Strategie: Die Integration von Vektorsuche für Vergleichsbeispiele und Graph-Retrieval (LightRAG) für Ontologiestrukturen ermöglicht dabei eine präzise Steuerung von LLMs. Das System nutzt drei spezialisierte Agenten, die einen vierstufigen Workflow durchlaufen. Zunächst erstellt ein erster Agent basierend auf der fachlichen Interpretation und den abgerufenen ontologischen Stützen einen konzeptionellen Modellierungsvorschlag. Ein zweiter Agent überführt diesen anschließend in formale OWL/Manchester Syntax, wobei neue Klassen zur Sicherung der Interoperabilität strikt auf CIDOC CRM gemappt werden. Daraufhin integriert ein dritter Agent iterativ menschliches Feedback, indem er Korrekturen der Fachexpert:innen konstruktiv in die Graph-Logik einbettet. Abschließend werden die verifizierten Ontologie-Erweiterungen mittels semantischer Versionierung dauerhaft in die Wissensbasis überführt. Dies sichert die Konsistenz auch bei dynamisch wachsenden Ontologien und bietet einen skalierbaren, methodisch transparenten Ansatz für die Digital Humanities Making Archives Explorable: Visualising Digital Materials for a Wider Public Universität Hamburg, Germany The research project “A Fresh Look. Visualising Digitised German-Jewish Archives” aims to investigate human information-seeking strategies in archival contexts that go beyond targeted, systematic searching, namely open-ended, curiosity-driven browsing based on the available visual information. We describe our work with two contrasting archives. First the Jerusalem Guestbook of Moshe and Miryam Ben-Gavriêl, which contains 1,200 transcribed signatures, greetings, dedications, poems, and drawings in more than 20 languages, for which we have created a digital edition with three interlinked viewers. Second, the much larger written estate of Moritz Lazarus, consisting of more than 37,000 documents, including works and correspondence by and about Lazarus. This archive has been much less extensively catalogued, and we describe our approach to presenting the data in a manner which will encourage visitors to explore and engage with the archive, despite the challenge posed by the numerous images and sparse metadata. Spaß mit Derivaten: Orientierung bei der Forschung mit abgeleiteten Textformaten 1Deutsche Nationalbibliothek; 2Universitäts- und Landesbibliothek Darmstadt; 3Niedersächsische Staats- und Universitätsbibliothek Göttingen; 4Universität Trier Derivate, auch abgeleitete Textformate (ATF) genannt, bieten die Möglichkeit, an urheberrechtlich geschütztem Material zu forschen, ohne die üblicherweise damit einhergehenden Einschränkungen in Kauf nehmen zu müssen. Durch die Anwendung von vier Operationen (Löschen, Ersetzen, Behalten und Vertauschen) auf verschiedenen Granularitäten und Bezugsgrößen kann der Informationsgehalt des Ausgangstextes so reduziert werden, dass das Ergebnis zwar nicht mehr urheberrechtlich relevant ist, aber noch zur Beantwortung mindestens einer Forschungsfrage dient. Das Projekt Forschen mit Derivaten will die Möglichkeiten textbasierter Forschung mit rechtebewehrten Daten verbessern und den Grundstein für weitere Aktivitäten legen. Dazu werden im Austausch mit der wissenschaftlichen Community Forschungsfragen ermittelt, die mit Hilfe von ATF beantwortet werden können. Außerdem werden verschiedene Derivate systematisch auf ihre Validität für die Forschung evaluiert und rechtlich eingeordnet. Ziel des Projekts ist es, Rahmenbedingungen zu schaffen, innerhalb derer Forschende mit Spaß – also rechtssicher und urheberrechtskonform – mit Derivaten arbeiten können. Wie passt ein Audio-Essay zwischen zwei Buchdeckel? Digital Humanists In Eigenen Worten - Die Genese der “From Global to Local DH”- Audio-Essays als Experiment multimedialen Publizierens in den digitalen Geisteswissenschaften 1Fachhochschule Potsdam, Deutschland; 2Akademie der Wissenschaften und der Literatur|Mainz - Digitale Akademie; 3Universität Heidelberg, Theologische Fakultät; 4Universität Bielefeld, Arbeitsbereich Digital History Das Poster präsentiert die innovativen Ansätze der Publikation "From Global to Local? Digitale Methoden in den Geisteswissenschaften im deutschsprachigen Raum: Ein Triptychon" von Melusina Press (zu erscheinen 2026 im Diamond Open Access), die multimediale und multimodale Publikationsformate wie Audio-Essays integriert. Diese Audio-Essays, die auch als Podcasts zugänglich gemacht werden, nehmen die zentrale Rolle von Podcasts in der Wissenschaftskommunikation der Digital Humanities auf und eröffnen ein direktes Diskursmedium über Standortbestimmung und Selbstbild der Disziplin. Die multimediale Gestaltung wurde in Zusammenarbeit mit Podcast-Expert*innen entwickelt und umfasst nicht nur gesprochene Inhalte, sondern auch Musik, Soundeffekte und ergänzende Materialien wie Shownotes und Transkriptionen. Ein angepasster Qualitätssicherungsprozess, inspiriert von Podcast-Praktiken und qualitativen Interviewmethoden, stellt eine fundierte Begutachtung dieser Formate sicher und bietet neue Perspektiven auf multimediale geisteswissenschaftliche Veröffentlichungen. Das Poster lädt dazu ein, über die Herausforderungen und Chancen des multimedialen Publizierens in den Geisteswissenschaften ins Gespräch zu kommen. Der BookTok-Kanon: Eine netzwerkanalytische Untersuchung populärer Bücher TU Darmstadt, Deutschland Digitale Plattformen wie TikTok prägen zunehmend die Wahrnehmung und Rezeption literarischer Werke. Dieser Beitrag widmet sich der Frage, inwiefern sich dabei ein BookTok-Kanon abzeichnet. Basierend auf 2.976 Buchnennungen aus 324 Videos verdeutlicht eine Netzwerkanalyse, welche Texte innerhalb der Community zentrale Positionen einnehmen. Romance- und Fantasy-Titel dominieren das Netzwerk, während randständige Werke überwiegend spezialisierten Themenfeldern zugeordnet sind. Subcommunities unterscheiden sich vor allem nach Genre, Zielgruppe und Sprache; Klassiker treten vor allem im Kontext von Dark Academia auf. Die Analyse macht sichtbar, wie algorithmische Strukturen und digitale Praktiken literarische Sichtbarkeit prägen und Kanonbildungsprozesse in sozialen Medien beeinflussen. Namen in Dramen: Es klingt so, als wurden Berufe häufiger Akademie der Wissenschaften und der Literatur | Mainz, Deutschland Der Beitrag zeigt, wie Figurennamen in 656 Dramen, die zwischen 1740 und 1830 erschienen sind, automatisch mit onomastischen Benennungsmotiven angereichert werden können, um diachrone Trends wie eine Zunahme von Namen, die auf Berufe zurückgehen, zu identifizieren. Dabei werden Annotationen aus zwei sehr unterschiedlichen Datenbeständen (dem Dramenkorpus GerDraCor und dem Digitalen Familiennamenwörterbuch Deutschlands DFD) nachgenutzt und zusammengeführt. Zudem wird eine SVM mit distributionellen n-Gramm-Embeddings von 8.000 bereits im DFD erschlossenen Familiennamen trainiert, die (noch) nicht erschlossene mit nur geringen computationellen Ressourcen und einem hohen F1-Wert von 0,71 klassifizieren kann. Visuelle Praktiken der Weltbildproduktion rekonstruieren. Konzeption einer digitalen Infrastruktur zur algorithmisch unterstützten, multimodalen und multiperspektivischen Erfassung und Analyse geographiehistorisch relevanter Archivalien. Leibniz-Institut für Länderkunde, Deutschland Das Querschnittsvorhaben Visualisierung Regionaler Geographien (VisRegGeo) am Leibniz-Institut für Länderkunde entwickelt eine digitale Lösungsarchitektur zur Erfassung und Analyse geographiehistorisch relevanter multimodaler Archivalien. Grundlage sind umfangreiche Bestände des Archivs für Geographie, die historische Karten, Fotografien, Zeichnungen, Feldnotizen und weitere kulturelle Artefakte umfassen. Ziel ist der Aufbau FAIR- und CARE-konformer Korpora, die methodenplurale, multiperspektivische Analysen visueller Praktiken der Produktion, Zirkulation und Rezeption von Weltbildern in ihren jeweiligen zeitlichen Kontexten ermöglichen. Zentrale Forschungsfragen betreffen (1) die Bereitstellung von heterogenen Daten zu visuellen Praktiken sowie (2) die sensible Erschließung von teils kolonial geprägten Sammlungen. Der Infrastrukturaufbau kombiniert Digital Asset Management, API-Gateway, webbasiertes Erkundungsportal und digitale Ad-Hoc-Analysen mit Begleitforschung zu digitalen Archiv-, Forschungs- und Vermittlungspraktiken, um neue digital-dekoloniale Analysepotenziale geographie- und wissenschaftshistorisch relevanter Sammlungsbestände zu erproben. Geschichtswissenschaftliche Forschungsdaten zwischen Quellen-naher und Ziel-orientierter Modellierung Universität Münster, Deutschland Der Beitrag behandelt die Datenaufbereitung und -modellierung historischer Bibelübersetzungen im kolonialen Kontext im Rahmen des Global-Bibel-Projekts der Universitäten Münster und Bristol. Der Fokus liegt auf dem Spannungsfeld zwischen quellennaher und zielorientierter Modellierung historischer Informationen. Ausgangspunkt ist das Book of a Thousand Tongues, ein Verzeichnis von Bibelübersetzungen in zahlreiche Sprachen. Besondere Herausforderung ist die Erfassung ungenannter Akteure („silenced actors“), die in der historischen Datenbank FactGrid als unidentifizierte Personen oder Gruppen abgebildet werden. Technisch erfolgte die Strukturierung mithilfe von OCR, LangChain (GPT-4.1) und RDF-Export in ein Wikibase-Datenmodell. Das Fazit betont, dass Bibelübersetzungen als komplexe, historisch eingebettete Prozesse verstanden werden müssen. Eine bloße Modellierung bibliographischer Fakten reicht nicht aus; erforderlich ist ein flexibler, ereignisbasierter Ansatz, der sowohl quellennahe als auch analytische Perspektiven integriert. FactGrid bietet dafür prinzipiell die nötige Flexibilität, erfordert aber eine differenzierte Modellierungspraxis zwischen CIDOC CRM-ähnlicher Ereignisstruktur und der typischen Qualifier-Nutzung von Wikibase. Das Projekt „Sorbische Kulturdenkmale in Sachsen“ an der Schnittstelle zu nachhaltigen Forschungsdateninfrastrukturen 1Sächsische Akademie der Wissenschaften zu Leipzig, Deutschland; 2Serbski institut / Sorbisches Institut Bautzen Das Forschungsprojekt “Sorbische Kulturdenkmale in Sachsen. Entwicklung einer virtuellen Arbeitsumgebung für ihre digitale Erfassung und Präsentation” entwickelt eine Plattform für die digitale Dokumentation und Präsentation sorbischer Kulturdenkmale. Dabei ist es zum einen Teil eines sich im Entstehen befindenden Sorbischen Kulturregisters (SKR), eines digitalen Katalogs, der das Kulturerbe der Sorben und Wenden umfassen wird. Zum anderen ist es ein Teilprojekt von DIKUSA - „Vernetzung digitaler Kulturdaten in Sachsen“, einem Verbundprojekt der sechs außeruniversitären geisteswissenschaftlichen Forschungseinrichtungen in Sachsen. Die konkrete Umsetzung des Forschungsprojekts und dessen Kooperation und Integration mit den Infrastrukturprojekten, sowie deren jeweilige technische Grundlagen, sind Thema dieses Posters. Wir fokussieren dabei auf die technische Umsetzung am Schnittpunkt nachhaltiger Forschungsdateninfrastrukturen. Dabei richtet sich die Implementierung in puncto Datenmodellierung und Definition von Austauschformaten maßgeblich nach den Gegebenheiten der in den Infrastrukturen verwendeten Standards, Schnittstellen und Workflows und versucht gleichzeitig zukünftige Integrationsaufwände gering zu halten. OER-Materialien zur Einführung in die Digital Humanities Ruhr-Universität-Bochum, Deutschland Im Rahmen des UA-Ruhr-Zertifikats "Digital Humanities" wurden an der Ruhr-Universität-Bochum drei Moodle-Selbstlernkurse als OER erstellt. 1. Computer Basics: Erlernen grundlegender Computerkenntnisse, um alle Studierenden auf einen vergleichbaren Stand zu bringen. 2. DH Flavors: Ein Einblick in verschiedene DH-Projekte, aufgeschlüsselt nach Fach-/Studienrichtungen 3. DH Toolbox: Ein Überblick über eine Bandbreite von Werkzeugen der DH aufgeteilt in Digitalisieren, Sammeln & Konvertieren, Aufbereiten & Annotieren, Analysieren, Visualisieren, sowie Veröffentlichen & Archivieren. Das Poster stellt die drei Kurse vor und zeigt Möglichkeiten zur Einbindung in die eigene Lehre auf. DHInfra.at: A Shared and Federated Infrastructure for the Austrian Digital Humanities Karl-Franzens-Universität Graz, Österreich As Digital Humanities research expands beyond text, the demand for specialized computational infrastructure—for machine learning, large-scale data storage, and advanced imaging—is growing rapidly. Individual institutions often struggle to meet this need. The Austrian DHInfra.at project addresses this gap by establishing a national, shared, and federated infrastructure. Led by the University of Graz and supported by nine partner institutions, the project provides researchers with location-independent access to key resources. These include high-performance GPU clusters for AI applications, distributed repositories for long-term data availability, mobile data capture equipment, and Infrastructure-as-a-Service. Governed by CLARIAH-AT, DHInfra.at aims to democratize access to state-of-the-art tools, foster collaboration, and empower innovative, data-intensive humanities research across Austria. This poster will present the project's federated structure, its core services, and its significance for the DH community. Mehr Text! Mehr Daten! Das Kreativitätsduell als transmodales Game with a Purpose zur Datenerhebung für die textwissenschaftliche Kreativitätsforschung Universität Bielefeld, Deutschland Das Kreativitätsduell ist ein interaktives Tool zur Datenerhebung im Rahmen von Citizen Science in der textwissenschaftlichen Kreativitätsforschung. Ein interessiertes Publikum wird eingeladen, unter dem Motto „Wer ist kreativer – die KI oder ich?“ möglichst kreative Äußerungen zu produzieren. Die semantische Distanz der produzierten Sätze zu von ChatGPT generierten Sätzen dient als Approximation für Originalität und wird den Teilnehmenden als Punktzahl zurückgegeben. Durch gezielte Gamification-Elemente, wie das Punktesystem und visuelles Feedback für besonders kreative Beiträge, soll die Motivation der Spielenden gesteigert und die Datenqualität verbessert werden. Das Tool bietet ein leicht zugängliches Format für wissenschaftliche Datenerhebung. Ziel ist es, auf spielerische Art kreative sprachliche Äußerungen einer breiten Bevölkerung zu sammeln, die als Datengrundlage für Folgestudien im breiteren Kontext der Digital Humanities dienen können. Das Spiel wird im Rahmen des GENIALE-Festivals in der Wissenswerkstadt Bielefeld vorgestellt. Nicht nur Namen und Orte: Warum historische Annotation mehr kann (und soll) Universität Bern, Switzerland Dieses Poster präsentiert das Berner (früh-)Neuhochdeutsche Annotationsschema (BeNASch). Nach BeNASch werden nicht nur Referenzen auf bestimmte Entitäten wie Personen, Orte und Organisationen vermerkt, sondern durch einen verschachtelten Aufbau auch Informationen dazu, auf welche Weise jene Entitäten erwähnt werden, z.B. durch Namen, Beruf oder Lage. Zusätzlich ist BeNASch darauf ausgelegt, ebenfalls Beziehungs- und Ereignisannotationen zu ermöglichen, wenn diese gewünscht werden. Wir argumentieren, dass eine komplexere Annotation, welche mehr Informationen festhält, trotz des grösseren Arbeitsaufwandes gerechtfertigt sein kann. BeNASch ist derzeit in zwei grösseren Forschungsprojekten im Einsatz und ermöglicht dort strukturierte und und detaillierte Analysen. SODa Semantic Co-Working Space – Ein Werkzeugkasten für den gesamten sammlungsbezogenen Forschungsdatenlebenszyklus Germanisches Nationalmuseum Nürnberg, Deutschland Daten treten in sehr heterogenen Formen auf und durchlaufen diverse Stadien in denen sie von Forschenden bearbeitet oder genutzt werden. Die passenden Werkzeuge für diesen vielseitigen Umgang mit Forschungsdaten zu finden, ist komplex und bedarf einer adäquaten technischen Infrastruktur, die Orientierung bietet. In diesem Poster wird der Semantic Co-Working Space (SCS) als Produkt des Verbundprojekts SODa (Sammlungen, Objekte, Datenkompetenzen) vorgestellt. Die Webapplikation vereint etablierte Werkzeuge zu einem interoperablen System, um Forschende bei der Arbeit mit Sammlungsdaten entlang des gesamten Forschungsdatenlebenszyklus zu unterstützen. Der SCS ermöglicht kollaboratives Arbeiten, das nicht an lokale Infrastrukturen oder spezialisiertes technisches Wissen gebunden ist. Damit wird FAIRes Forschungsdatenmanagement sowie die Publikation von Linked Open Data in wissenschaftlichen Sammlungen gefördert. Status quo: geschichtswissenschaftliche Forschungsdaten in Repositorien – Auf der Suche nach einem repräsentativen Querschnitt Bayerische Staatsbibliothek, Deutschland Das Poster gibt einen Einblick in die Anforderungsanalyse für die NFDI4Memory Ontologie (MemO), zu der das präsentierende Team an der Bayerischen Staatsbibliothek (BSB) im Aufgabenbereich „Data Connectivity“ des NFDI4Memory-Konsortiums kontinuierlich beiträgt. MemO wird am FIZ Karlsruhe als ein domänenspezifisches Erweiterungsmodul zur NFDIcore Ontology entwickelt und dient als Basis für den graphbasierten Index des NFDI4Memory Data Space. Als einen Baustein, um die Domänenanforderungen zu ermitteln, erstellt das BSB-Team derzeit eine Übersicht von in re3data verzeichneten Forschungsdatenrepositorien, die Daten aus geschichtswissenschaftlichen Forschungskontexten enthalten. Daraus werden heterogene (Meta-)Datenbeispiele selektiert. Ziel ist es, ein möglichst umfassendes Spektrum von Forschungsdaten, die bereits verstreut für historisch arbeitende Geisteswissenschaften zur Verfügung stehen, abzuleiten. Das Poster setzt sie in Beziehung zu domänenspezifischen Competency Questions (CQ). Erste Ergebnisse, eine Zusammenstellung von gängigen Daten- und Dateiformaten, von (Meta-)Datenbeispielen aus Forschungsdatenrepositorien und sie verbindenden Informationskategorien mit Relevanz für die Geschichtswissenschaft sollen präsentiert werden. Nicht nur Text, nicht nur Daten – auch Rechte! Germanisches Nationalmuseum, Deutschland Das Deutsche Kunstarchiv im Germanischen Nationalmuseum zählt zu den größten Nachlassarchiven im Bereich der Bildenden Kunst im deutschsprachigen Raum. Die mehrheitlich unikalen Unterlagen sind inhaltlich und medial weit gefächert und für viele Forschungszweige von großer Bedeutung. Um eine ortsungebundene Forschung an den Archivalien zu ermöglichen, hat die digitale Verfügbarkeit hohe Relevanz. Archive stehen somit in der Pflicht, ihre Bestände für die Öffentlichkeit entsprechend nutzbar zu machen. Nicht alle im Archiv gespeicherten Daten können uneingeschränkt öffentlich zugänglich gemacht werden. Es gibt rechtliche Beschränkungen, die dem entgegenstehen, woraus sich spezielle Anforderungen an die Nutzung ganzer Bestände oder einzelner Konvolute ergeben. Die bestehenden rechtlichen Regelungen behindern die unkomplizierte Online-Verfügbarkeit aller erschlossenen Archivdaten. Um eine Forschung an diesen Quellen zu ermöglichen, ohne den rechtlichen Rahmen zu verletzen, fördert die Deutsche Forschungsgemeinschaft ein zweijähriges Pilotprojekt zu „noch rechtebewehrten Objekten“. Das DKA erarbeitet mithilfe von CIDOC CRM und einer REL eine webbasierte Lösung. Wissen FAIR vernetzt: Cross-Walks zwischen der Linked Open Data Cloud und dem Object Core Metadata Profile im NFDI Ecosystem 1Leibniz-Zentrum für Archäologie (LEIZA); 2Klassik Stiftung Weimar, Deutschland Der Einsatz digitaler Werkzeuge in den Humanities ist bereits seit geraumer Zeit etabliert, dennoch ergeben sich aufgrund der ausgeprägten methodischen Diversität der unterschiedlichen Domänen individuelle Anforderungen bei der systematischen Datenintegration, Datenharmonisierung und Datenbereitstellung. Für die Erschließung, Sicherung und Wiederverwendung heterogener Fachdaten sind strukturierte Terminologien und Community-Standards unerlässlich. Konservierung-Restaurierung ist ein Element der NFDI4Objects Objektbiografie, wobei solche Daten bisher eher in unstrukturierter Weise in isolierten System erfasst wurden. In NFDI4Objects werden daher Metadatenstandards und Ontologien für die interoperable Bereitstellung dieser wertvollen Ressourcen ausgearbeitet. Zur semantischen Harmonisierung dieser Daten wird eine Referenzarchitektur auf Basis von Linked Open Data entwickelt. Zentrale Elemente sind dabei das Object Core Metadata Profile, das domänenspezifische Metadaten mit dem NFDI Core Metadata Profile verknüpft und die Material Cultural Heritage Crosswalk Ontology (MaCHeCO). Das Format „Data Challenges“ des Datenkompetenzzentrums HERMES - Eine Strategie zum Fördern der Best-Practices in der GLAM-IT-Wissenschaft-Kooperation 1Philipps-Universität Marburg, Deutschland; 2Hochschule Mainz Das Datenkompetenzzentrum HERMES hat das Format „Data Challenges“ entwickelt, um eine Lücke zwischen GLAM-Institutionen, den Digital Humanities sowie der IT und Datenwissenschaft zu schließen. Diese Lücke zeigt sich einerseits in der einseitigen Nutzung von Daten durch Forschende, ohne Rückmeldungen zur Datenqualität zu geben, und andererseits in der Entwicklung von Software durch IT-Fachkräfte, bei der die Bedürfnisse der Forschenden häufig unberücksichtigt bleiben. Ziel der Data Challenges ist es, Best Practices für die interdisziplinäre Zusammenarbeit zu etablieren und die Nachhaltigkeit der Ergebnisse zu sichern. Hierfür werden sorgfältig kuratierte Datensätze aus GLAM-Institutionen verwendet, etwa Zeitungs- oder audiovisuelle Daten. Jede Challenge behandelt entweder eine wissenschaftliche Fragestellung oder zielt auf die Entwicklung eines digitalen Tools ab, um konkrete Produkte oder Analysen mit direktem Mehrwert für die beteiligten Institutionen zu schaffen. HERMES fördert die Zusammenarbeit zwischen den Teilnehmenden und den datengebenden Einrichtungen, sodass die entwickelten Lösungen langfristig gemeinsam weiterentwickelt und gepflegt werden können. One Genre, Many Formalisms: On Formulaic Language in Pre-Modern Chinese Mathematical Texts FAU Erlangen-Nürnberg, Deutschland Certain technical genres such as mathematical texts are commonly assumed to exhibit patterns of formulaic language use. However, it is difficult to precisely assess to what extent this is actually true, and if so, how such patterns do manifest themselves. In this project, we make use of a computational suite of tools developed by Richard Forsyth, formulib, that is designed to quantify and analyze formulaic language, applying it to pre-modern Chinese mathematical texts, a genre where detecting the prevalence of formulaic patterns is particularly relevant. Our findings reveal that mathematical texts are indeed more formulaic than other genres, but that particular formulaic sequences are mostly limited to single works, i.e. that individual authors used formulaic language to different extents and in different ways. 6 Jahre DFG-Schwerpunktprogramm "Computational Literary Studies" 1Universität Würzburg, Germany; 2Universität Stuttgart; 3Universität zu Köln Die Computational Literary Studies (CLS) sind ein Teilbereich der Digital Humanities, in dem computationelle Verfahren für literaturwissenschaftliche Fragestellungen eingesetzt werden. Das DFG-Schwerpunktprogramm (SPP) "Computational Literary Studies" startete 2020 mit dem Ziel die CLS im deutschsprachigen Raum zu fördern, in der Forschungslandschaft zu etablieren und die Forschenden aus diesem Feld untereinander zu vernetzen. In zwei Förderperioden von jeweils drei Jahren wurden insgesamt 18 Forschungsprojekte gefördert, drei weitere wurden als assoziierte Projekte in die Aktivitäten des SPP integriert. Dieses Poster will einen Überblick über die Projekte und Aktivitäten des SPP, seine Ergebnisse und prägende Entwicklungen im Bereich der CLS in den letzten sechs Jahren geben. Sehen Lernen. Bildkompetenz zwischen Mensch und Maschine Georg-August-Universität Göttingen, Deutschland Bei „Sehen Lernen” handelt es sich um ein Lehrprojekt, in dem Studierenden verschiedener Fachrichtungen anhand ausgewählter Beispiele Bild-, Medien- und KI-Kompetenzen vermittelt werden. Um die Wirkmacht von Bildern vor dem Hintergrund der rasanten Entwicklung von KI-Technologien zu demonstrieren, wird die menschliche Wahrnehmung auf explorative und spielerische Weise der algorithmischen Verarbeitung durch den Computer gegenübergestellt. Die Lehreinheiten sind dabei in zwei Blöcke strukturiert. Im ersten Block werden am alltagsnahen Beispiel „Filmplakate“ die Grundlagen von visueller Kommunikation und des maschinellen Lernens thematisiert. Welche Bildeigenschaften gibt es und wie müssen sie für die Verarbeitung mit KI übersetzt werden? Im zweiten Block findet eine Transferleistung auf weitere Fallstudien unterschiedlicher Anwendungsfächer statt, sowie die Erkundung von Anwendungsfälle für KI, wie zum Beispiel Object-Detection und Bildgeneration. Darüber hinaus bietet „Sehen Lernen” auch eine Ressourcensammlung von Tools, Modellen und Datensätzen, sodass Studierende die Plattform auch als Anlaufpunkt für ihre eigenen Projekte nutzen können. Fluide Workflows für musikalische Skizzen – Zum Umgang mit einem komplexen Datenmodell Universität Paderborn, Deutschland Im Beitrag geht es darum, wie verschiedene Werkzeuge ineinandergreifen, um ein komplexes Datenmodell zur Modellierung musikalischer Skizzen softwareseitig zu ermöglichen. Glaube, Liebe, Zukunftsangst - und Zimtkuchen. Ergebnisse einer szenenbasierten Analyse weiblicher Dialoge in GerDraCor mit dem Bechdel-Wallace-Test Universität Potsdam, Deutschland Das Poster stellt eine Untersuchung der Repräsentation weiblicher Figuren in deutschsprachigen Dramen mithilfe einer Operationalisierung des Bechdel-Wallace-Tests vor. Grundlage ist das Korpus GerDraCor. Die Metadaten, Figurenverzeichnisse und die TEI kodierten Texte wurden über die DraCor-API automatisiert in Python ausgewertet. Über eine mehrteilige Filterung wurden Szenen identifiziert, die den Test möglicherweise bestehen: Zunächst wurden alle Dramen ausgeschlossen, die nicht mindestens zwei Frauen beinhalten. Anschließend wurden für die verbleibenden Texte diejenigen Szenen identifiziert, in denen ausschließlich Frauen auftreten. Diese wurden mit einer kuratierten Liste, die männliche Vornamen und männlich kodierte Substantive enthält, nach der Maßgabe gefiltert, ob sie Bezüge zu Männern enthalten. Die übrigen Szenen mit einer bestimmten Mindestlänge wurden abschließend manuell validiert. Einige irritierende Texte (bspw. Verkleidungsszenen) machten zudem die Erarbeitung von Leitlinien nötig. Nach dieser Operationalisierung bestehen 5% der Dramen in GerDraCor den Bechdel-Wallace-Test. Die behandelten Themen in den entsprechenden Szenen umfassen Religion, Beziehungen, Selbstreflexionen und den häuslichen Alltag. Not only Text and Data but also Software. Modern Research Software Architecture for Legacy DH Projects. Travelogue Portals in Digital History. Showcasing the new digiberichte.de 1Niedersächsische Akademie der Wissenschaften zu Gö, Deutschland; 2Independent IT Consultant Maintaining software projects over a longer period of time is challenging. Not only security fixes have to be applied, but from time to time new features need to be added, or the user interface need to be updated to fit more actual needs. We want to share our experience and strategy for a successful reengineering of legacy websites with “digiberichte.de” as an example. This poster aims to present the current version of the project and the web application that has been created based on the original research data. The web application provides KWIC access to the bibliographic data and the full texts of primary and secondary literature on the topic and draws the itineraries of travelers using modern web mapping technology. We see digiberichte.de as a testimony of the evolution of RSE in the last twenty years Data Literacy lehren und lernen: Der Data Literacy Learning Hub von NFDI4Memory 1Universität Trier, Deutschland; 2Freie Universität Berlin, Deutschland Die Informations-, Lern- und Lehrplattform “HistoFOX” des NFDI4Memory-Konsortiums ist ein digitales Angebot zur Förderung von Datenkompetenzen in historisch arbeitenden Disziplinen. Sie richtet sich an Lehrende und Lernende und basiert auf der Infrastruktur des Open Encyclopedia Systems. Der HistoFOX umfasst verschiedene eng verknüpfte Bereiche: einen interaktiven Selbstlernkurs zu Datenkompetenzgrundlagen, didaktisierte Beispieldatensätze aus der geisteswissenschaftlichen Forschung und eine systematische Übersicht relevanter Ressourcen wie Software und Checklisten. Durch die modulare, aber vernetzte Struktur entstehen verschiedene Zugangspunkte, die sich wechselseitig ergänzen. Das Poster stellt die inhaltliche Struktur des HistoFOX vor. Es zeigt exemplarisch, wie historisch arbeitende Disziplinen von einem modularen, praxisorientierten und offen zugänglichen Lernangebot profitieren können. Ziel ist es, Datenkompetenzen nicht als Zusatzthema, sondern als integralen Bestandteil wissenschaftlicher Aus- und Weiterbildung zu verankern und so nachhaltige Zugänge zum Umgang mit digitalen Forschungsdaten zu schaffen. Materi-A-Net 1Uni Koeln, Germany; 2BRGM Orléans Gegenstand des Beitrags ist das DFG-ANR-Projekt Materi-A-Net, das in einer Kooperation der Kölner Kunstgeschichte, des BRGM Orléans sowie des Cologne Center for eHumanities anhand von ausgewählten Alabaster-Skulpturen die Handlungsmacht der künstlerischen Materialien als Faktor in den grenzüberschreitenden deutsch-französischen kulturellen Netzwerken untersucht. Im Zentrum stehen dabei nicht nur die menschlichen Akteure, sondern der Rohstoff Alabaster selbst. Ausgehend von der Akteur-Netzwerk-Theorie (ANT) nach Bruno Latour wird das Material hier als Akteur verstanden, der gleichberechtigt zu Personen, Orten und Ereignissen als gestaltendes Element für das Verständnis von Kulturtransfer- und Produktionsprozessen auftritt. Das Poster fokussiert den Workflow und die technische Umsetzung des Projekts und präsentiert beispielhafte Analysen, die auf Grundlage der im Projekt vorgenommenen Datenmodellierung entstanden sind. Nicht nur Daten, nicht nur Algorithmen? Akzeptanz als Basis des community-gesteuerten Aufbaus von DH-Infrastrukturen – Das Projekt „SHare-DH" 1Christian-Albrechts-Universität zu Kiel, Deutschland; 2Europa-Universität Flensburg, Deutschland Das Projekt “SHare-DH - synergetische DH-Infrastrukturen in Schleswig-Holstein” stellt Akzeptanz gegenüber digitalen Methoden ins Zentrum des DH-Infrastrukturaufbaus. Dabei wird davon ausgegangen, dass eine solche Akzeptanz durch drei sich ergänzende Zugänge - "understanding DH”, “reflecting DH” und “doing DH” erreichbar ist. Neben modularen, gemeinsam mit der Fachcommunity entwickelten Lernbausteinen (“understanding DH”) fokussiert das Projekt auf (inter)disziplinäre Selbstreflexion (“reflecting DH”, u. a. über eine Ringvorlesung zum Verhältnis digitaler Methoden zu gewachsenen Meister- und Metanarrativen) sowie niedrigschwellige Praxisformate zu Digital-Humanities-Tools wie Nodegoat (“doing DH”). SHareDH erweitert damit gängige Infrastrukturverständnisse um eine kritische, epistemologische Perspektive und adressiert DH als Herausforderung und Chance für fächerübergreifende Zusammenarbeit und nachhaltige Digitalisierung geisteswissenschaftlicher Forschung und Lehre in Schleswig-Holstein. Strickpulli – Flechtkorb – slave beads. Herausforderungen an die Entwicklung von Datenmodellen im Projekt Prize Papers Carl von Ossietzky Universität Oldenburg, Deutschland Das Poster visualisiert die Rolle von Materialität in der Digitalisierung und Erschließung heterogener, zum Teil ethisch sensibler Bestände. Dabei zeigt es die Herausforderungen an die Erschließung und Entwicklung von Datenmodellen am Beispiel des Projekts Prize Papers. Ein Ziel des Projekts ist die Entwicklung eines Materialitätsdatenmodells für die strukturierte Erfassung und Darstellung der Artefakte des Bestands, um diese mit weiteren Datensätzen des Projekts verknüpfbar zu machen. Raum-Daten und Daten-Räume: Der digitale Zwilling des Deutschen Museums als nachhaltige Forschungsinfrastruktur Deutsches Museum, Deutschland Der Beitrag zeigt die digitalen Zwillinge des Deutschen Museums als interdisziplinäre Forschungsinfrastruktur für digitales Kulturerbe. Frühere Scans konservieren historische Zustände vor der laufenden Generalsanierung (2015–2020) und ermöglichen so diachrone Studien zur Transformation musealer Räume und materieller Kultur. Seit 2015 auch als virtueller Rundgang genutzt, sind bereits über 200.000 Besuche verzeichnet. Aus 1 Milliarde Scanpunkten und 1.500 360° Panoramen entstand 2024 ein weiteres 3D-Modell der neu gestalteten Ausstellungen. Dabei dienen Punktwolken selbst als räumliches Forschungsobjekt: Durch Einbettung semantischer Metadaten und Objektbilder via API zum Portal „Deutsches Museum Digital“ wird der Messdatensatz nach dem „Memory Twin“-Konzept zum Wissensraum. Das Poster dokumentiert den Workflow von der Datenerzeugung über Qualitätssicherung bis hin zur Schnittstellennutzung. Perspektivisch sind KI-gestützte Touren zur personalisierten Wissensvermittlung sowie die Integration von IoT-Sensoren zur Echtzeit-Datenerhebung denkbar. Der digitale Zwilling ist so kein abgeschlossenes Endprodukt, sondern ein nachhaltiges Fundament, das die Datenerzeugung an den Anfang stellt und zukünftige, noch nicht antizipierte Forschungs und Vermittlungsfragen ermöglicht. „Man will ja auch irgendwie impressen”: Erfahrungsbericht einer Mockkonferenz als Prüfungsformat für ein Digital Humanities Forschungsseminar Computational Humanities Group, Universität Leipzig Wie können Prüfungsformate gestaltet werden, die Studierende motivieren und Wissenschaft als Praxis erfahrbar machen? Im Forschungsseminar Digital Humanities (B.Sc., Universität Leipzig) haben wir im Wintersemester 2024/25 eine Mockkonferenz als Prüfungsformat erprobt. Die Studierenden übernahmen dabei wechselnde Rollen: Sie verfassten ein Peer Review zu einem Fachartikel, bereiteten einen anderen Artikel als Konferenzvortrag auf, präsentierten diesen im Rahmen einer simulierten wissenschaftlichen Tagung und stellten sich den Fragen ihrer Kommiliton:innen. Das Setting zielte auf eine realitätsnahe Lernerfahrung, förderte zentrale wissenschaftliche Kompetenzen und wurde von den Studierenden sehr positiv bewertet. Sie berichteten von vertieftem Fachverständnis, erhöhter Motivation und einer als respektvoll und gemeinschaftlich empfundenen Prüfungsatmosphäre. Auch aus Sicht der Lehrenden zeigte sich ein klarer Mehrwert gegenüber klassischen Referatsformaten. Unser Poster stellt das Konzept, den Ablauf sowie studentisches Feedback vor und versteht sich als Impuls für den Dialog über partizipative, praxisnahe Prüfungsformate in den Digital Humanities und darüber hinaus. Vom Zugriffsdatum zur URN: Nachhaltiges Zitieren mit dem PWID Service Österreichische Nationalbibliothek, Österreich Das Poster stellt mit dem Persistent Web Identifier (PWID) ein standardisiertes Verfahren für das nachhaltige Zitieren von Webinhalten in den Geisteswissenschaften vor. Der PWID ist seit 2022 offiziell als URN bei der IANA registriert und ermöglicht die eindeutige Referenzierung archivierter Webseiten. Im Zentrum steht das PWID Service der Österreichischen Nationalbibliothek, ein frei zugängliches Online-Tool samt API, das die Erstellung und Nutzung von PWIDs unterstützt. Ziel des Posters ist es, das Bewusstsein dafür zu stärken, dass Webquellen nicht mehr lediglich mit URL und Zugriffsdatum zitiert werden sollten. Stattdessen sollten sie möglichst vorab archiviert und dann mithilfe eines PWID korrekt referenziert werden. Der Beitrag richtet sich an Forschende, Lehrende und Studierende, die mit digitalen Ressourcen arbeiten, und gibt konkrete methodische Empfehlungen für die Anwendung in der Praxis. Damit leistet das Poster einen Beitrag zur digitalen Nachhaltigkeit und zur Weiterentwicklung wissenschaftlicher Zitierstandards in den Geisteswissenschaften. Agenten im Dienst der Edition: Dialogische Zugänge zu digitalen Editionen mittels Model Context Protocol (MCP) basierten KI-Agenten Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland In TEI-XML kodierte digitale Editionen enthalten eine semantische Tiefe, die durch traditionelle Web-Interfaces oft nur unzureichend erschlossen wird. Starre Suchformulare und Ergebnislisten behindern explorative, von Neugier getriebene Forschungspraktiken. Dieser Beitrag erprobt einen Ansatz, diese Lücke mit autonomen KI-Agenten zu schließen, die unter Verwendung des Model Context Protocol (MCP) als Vermittler zwischen Nutzeranfragen und kuratierten Werkzeugen fungieren. Die vorgestellte Entwicklung ermöglicht es Sprachmodellen, direkt auf digitale Editionen in eXistDB-Datenbanken zuzugreifen. Anstatt Antworten frei zu generieren, werden natürlichsprachliche Anfragen in präzise, strukturierte Funktionsaufrufe übersetzt, etwa um Bestände zu durchsuchen, Briefe zu filtern oder Personennetzwerke zu analysieren. Die so erlangten Informationen können dann für die fundierte Beantwortung der ursprünglichen Anfrage genutz werden. Ein prototypischer MCP-Server für die Briefedition „schleiermacher digital", die Quellensammlung „Praktiken der Monarchie" und das Recherchetool „correspSearch" der BBAW demonstriert diesen Ansatz: Forschende können in einem dialogischen Interface nahtlos zwischen verschiedenen Editionen wechseln und so Zusammenhänge natürlichsprachig erkunden. ‚Hoppla, die Indices!‘ Eine graphentheoretische Auswertung von Literaturstiftungsarchivmaterial zur Annäherung an die literaturhistorische Praxisformation ‚Schweizer Nationalliteratur‘ 1Universität Bielefeld, Deutschland; 2Zeitschrift für Digitale Geisteswissenschaften (ZfdG.de), Herzog August Bibliothek Wolfenbüttel Die Fallstudie konzentriert sich auf die netzwerkanalytische Auswertung von Archivindices der Schweizerischen Schillerstiftung sowie der Martin Bodmer Stiftung für einen Gottfried-Keller-Preis, die neben den Sender:innen und Empfänger:innen von Briefen und Telegrammen etc. auch Einladungen, Rezensionen und Auszahlungen nachhalten – und somit ein breites Spektrum von rekurrenten Handlungen, über die Akteur:innen des Schweizer Literaturbetriebs verknüpft sind. Die bis in das Jahr 1909 zurückreichenden Indices liegen als Durchschläge, handgeschriebene Aufstellungen und maschinengeschriebene Listen vor und wurden manuell digitalisiert, in eine Matrix überführt und als Netzwerk von Akteur:innen und Praktiken visualisiert und analysiert. Auf Basis von diesen heterogenen 'sparse data' wird herausgearbeitet, welche Akteur:innen auf welche Weise miteinander interagieren. Der Beitrag nähert sich einer datengetriebenen praxistheoretischen Untersuchung der Praxisformation 'Schweizer Nationalliteratur' als Netzwerk von Akteur:innen und Praktiken an und zeigt erste Befunde auf. Er möchte so einen empirischen und methodologischen Beitrag zu einer computationellen praxeologisch informierten Literaturgeschichte liefern. Communitys als Baustein zur nachhaltigen Sicherung von Forschungssoftware am Beispiel von OES Freie Universität Berlin, Deutschland Forschungssoftware in den Digital Humanities wird nach wie vor häufig im Rahmen von Projektvorhaben entwickelt. Mit deren Auslaufen entfallen personelle und finanzielle Ressourcen sowie organisationelle Einbettung, die die Software bis dato trugen. Was hingegen bleibt, ist der Wunsch bzw. die Notwendigkeit, die Open-Source-Software weiter verwenden zu können. Es gilt, nachhaltige Strukturen zu entwickeln, um Betrieb und Weiterentwicklung verwendeter Software zukunftsfähig zu gestalten und möglichst langfristig abzusichern. Im DFG-Vorhaben „Aufbau und Verstetigung einer Community für das Open Encyclopedia System (OES)“ erarbeiten wir derzeit in einem partizipativen, iterativen Prozess mit den Nutzenden tragfähige Strukturen sowie Kooperations- und Arbeitsformen für die nutzergetriebene Weiterentwicklung und dauerhafte Absicherung der Software. Das Poster stellt Ideen zur Struktur sowie erste Maßnahmen zum Aufbau der Community vor, die basierend auf einer umfassenden Umfeldanalyse in Form von Web- und Literaturrecherche sowie Interviews mit Anbietenden von DH-Forschungssoftware im Rahmen des DFG-Projekts entwickelt wurden. | ||
