Conference Agenda
| Session | ||
Donnerstag 3: Donnerstag 3 – Poster Session 1
| ||
| Presentations | ||
Wie DH ist meine Bibliothek? Friedrich-Schiller-Universität Jena, Deutschland Der Beitrag stellt ein Instrument vor, das Bibliotheken bei der Einschätzung ihrer Digital Humanities Aktivitäten unterstützt. Ausgangspunkt ist die Beobachtung, dass DH zwar in Strategiepapiere und Ausschreibungen Eingang gefunden hat, eine strukturierte Selbstbewertung jedoch fehlt. Bibliotheken wirken in Forschungsprozessen mit Angeboten wie OCR-Unterstützung, Datenbereitstellung oder Beiträgen zu digitalen Editionen, verfolgen jedoch andere zeitliche und organisatorische Logiken als projektgetriebene DH Forschung. Das Tool greift typische Handlungsfelder des wissenschaftlichen Dienstes auf und ergänzt diese durch zentrale Felder der digitalen Strategie und Nachhaltigkeit. Eine interaktive Shiny App führt durch eine Skala mit unterlegten Beispielen und erzeugt ein Netzdiagramm als Ergebnis. Ziel ist eine Unterstützung für Selbstreflexion, realistische Einschätzungen und teaminternen Austausch ohne Benchmarking und Konkurrenz. What’s in a term? – Kontrollierte Vokabulare zur Erweiterung des DALIA Interchange Formats 1Technische Universität Darmstadt, Deutschland; 2Akademie der Wissenschaften und der Literatur Mainz, Deutschland; 3Rheinisch-Westfälische Technische Hochschule Aachen, Deutschland Das Infrastrukturprojekt DALIA (Data Literacy Alliance) entwickelt eine Plattform zur Sammlung, Verknüpfung und Bereitstellung von Lehrmaterialien zu Datenkompetenz und Forschungsdatenmanagement für verschiedene Zielgruppen und Disziplinen innerhalb der Nationalen Forschungsdateninfrastruktur (NFDI) und darüber hinaus. Das zentrale Element für die Lehrmaterialien ist ein Wissensgraph, dessen Interoperabilität durch das DALIA Interchange Format (DIF) gewährleistet wird – ein Metadatenschema, das auf bestehenden Standards basiert und in einem community-orientierten Prozess entwickelt wurde. Ein besonderer Schwerpunkt liegt auf der Erstellung kontrollierter Vokabulare für Metadatenfelder. Der Beitrag beleuchtet die Herausforderungen und Lösungsansätze bei der Entwicklung dieser Standards, die wesentlich für die konsistente Beschreibung vielfältiger digitaler Lernressourcen sind. Zeitschrift für digitale Geisteswissenschaften. A visual interface of processes and innovations 1Fachhochschule Potsdam, Fachbereich Informationswissenschaften; 2Herzog August Bibliothek Wolfenbüttel, Zeitschrift für digitale Geisteswissenschaften (ZfdG); 3Charité Berlin, Medizinische Bibliothek; 4Universität Bielefeld, SFB1288 "Praktiken des Vergleichens" The standards of journal and book publishing in the digital humanities are still changing due to digital research output. The Zeitschrift für digitale Geisteswissenschaften (ZfdG) therefore aims to provide researchers with an innovative journal publishing infrastructure of which editorial and review workflows are a significant part. To further enhance these workflows the presented poster lets (future) authors interactively explore the publishing possibilities at ZfdG, asks for its innovative potentials, and offers active participation via a survey. The information gathered this way is supposed to help the SeDOA Innovation Lab (SIL) define innovation in the field of digital humanities scholarly publishing and further improve the ZfdGs publishing services. ediarum.MINUTES.data-model - ein Spin-Off für Protokolleditionen Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland Protokolle und Akten sind zentrale Quellen historischer Forschung, stellen jedoch aufgrund ihrer komplexen Struktur und Vielschichtigkeit besondere Anforderungen an digitale Editionen. Das ediarum.MINUTES.data-model ist ein modulares Datenmodell, das protokolltypische Phänomene wie Agenden, Teilnehmer*innenlisten und Sitzungsmetadaten systematisch abbildet. Es basiert auf einem ODD-Basismodell, das projektspezifisch erweitert werden kann – ermöglicht durch ein ODD-Chaining-Verfahren. Als ediarum-Spin-Off wurde das Modell zunächst im Editionsprojekt „Die Kabinettsprotokolle der Bundesregierung“ entwickelt und kommt in der Editionspraxis seit 2020 erfolgreich zum Einsatz. Inzwischen wird das bewährte Modell auf weitere Editionen übertragen. Das Ergebnis sind standardisierte, interoperable Forschungsdaten, die eine nachhaltige Präsentation und Nachnutzung über Projektgrenzen hinweg ermöglichen. Mit unserem Poster laden wir Projekte, die mit administrativen Quellen und Protokollen arbeiten, ein, mit uns in den Austausch zu treten und zu diskutieren. Alchemistische Morphologien – multimodale Analysen. Eine Suchmaschine zu Augsburger Rocaille-Drucken des 18. Jahrhunderts Universität Regensburg, Deutschland Die Ornamentik des Rokoko scheint einem alchemistischen Tiegel entsprungen: In unerschöpflicher Fülle entwickeln sich plastische, muschelartige Fortsätze aus einem komplexen Gerüst aus grafischen Schwüngen. Für die europaweite Verbreitung dieser Rocaille genannten Formen spielten Augsburger Druckgrafiken eine wichtige Rolle. Diese wurden unter kunsthistorischen Gesichtspunkten katalogisiert, digitalisiert und in eine Online-Datenbank überführt. Mithilfe von Neuronalen Netzen in Gestalt von variierten Encoder-Decoder-Modellen mit U-Net-ähnlichen Grundarchitekturen werden die Bilder segmentiert. Als Basis dienen manuell gesetzte Label, die einerseits das grafische Grundgerüst, andererseits die plastischen ‚Kämme‘ identifizieren und kategorisieren. Ergänzend werden deskriptive Katalogtexte über eine REST API erschlossen. Beide Verfahren finden in einer Online-Suchmaschine zusammen. Diese ermöglicht neben einer Volltextsuche den Upload eines Bildes und die Suche nach Augsburger Drucken, die als Vorbild oder Inspirationsquelle in Frage kommen, sei es bezüglich einzelner Motive oder der Gesamtkomposition. Auf diese Weise können Fragen nach dem Formentransfer oder dem Gebrauch der Ornamentstiche neu adressiert werden. Kloster trifft KI: Automatisierte Informationsextraktion aus klösterlichen Rechnungsbüchern 1Universität Graz; 2Österreichische Akademie der Wissenschaften; 3Universität Regensburg; 4KNOW Center, TU Graz; 5Staatliche Bibliothek Regensburg Die Digitale Edition der Rechnungsbücher des Zisterzienserklosters Aldersbach (1449–1567) zielt auf die automatisierte Aufbereitung und semantische Erschließung wirtschaftshistorisch bedeutender Quellen. Grundlage sind 19 mittellateinische und frühneuhochdeutsche Handschriften, die Einnahmen und Ausgaben des Klosters über ein Jahrhundert dokumentieren. Die Transkription erfolgt semi-automatisch via Transkribus, gefolgt von einer strukturellen und semantischen Vorverarbeitung in TEI-XML. Mittels NLP-Tools (SpaCy, Flair, GLiNER) und Large Language Models sollen Entitäten und Relationen extrahiert und als TEI und RDF gemäß der DEPCHA Bookkeeping Ontology (https://gams.uni-graz.at/o:depcha.bookkeeping) modelliert werden. Ziel ist die langfristige Archivierung und Publikation im Forschungsdatenrepositorium GAMS in einer webbasierten Umgebung mit Such- und Visualisierungsfunktionen. Die so generierten Daten bieten neue Perspektiven auf Preise, Löhne, Konsumverhalten und wirtschaftliche Entwicklungen im süddeutschen Raum und dienen als Grundlage für weiterführende wirtschaftshistorische Analysen. Das Poster zeigt den aktuellen Workflow, erste Ergebnisse und Herausforderungen. Metadatenerweiterung für Digitale Kulturgüter mit Large Language Models 1The Open University, United Kingdom; 2Edge Hill University, United Kingdom; 3Sheffield University, United Kingdom; 4Victoria and Albert Museum, London, United Kingdom Die Digitalisierung hat zur großen, digitalen Archiven digitaler Kulturgüter geführt, aber die Metadaten in diesen Archiven sind oft sehr limitiert. Diese Einschränkung erschwert die Suche in den Archiven und schränkt die Nutzbarkeit der Archive stark ein. In diesem Beitrag evaluieren wir die Nutzbarkeit primär lokaler Large Language Modelle um automatisiert Metadaten für Detailaspekte digitaler Kulturgüter zu identifizieren. Die Ergebnisse zeigen, dass dieser Ansatz praktikabel ist, aber dass eine expertengetriebene Endauswahl unumgänglich bleibt. Digital Humanities als Service für die lokale Community: der bedarfsgeleitete Aufbau einer Digital-Humanities-Service am BIS Oldenburg Bibliotheks- und Informationssystem (BIS) der Carl von Ossietzky Universität Oldenburg, Deutschland Die Carl von Ossietzky Universität Oldenburg (UOL) verfügt aktuell (Stand: Juli 2025) über keine institutionalisierte Digital Humanities (DH). Dennoch gibt es Bestrebungen, Digital Humanities für Forschende und Studierende in Oldenburg attraktiver zu gestalten und stärker am Campus zu verankern, einschließlich einer institutionellen Etablierung. In diesem Kontext entstand im Oktober 2024 am Bibliotheks- und Informationszentrum (BIS Oldenburg) eine Servicestelle Digital Humanities, deren Aufgabe es ist, Angebote in den Bereichen Schulung, Beratung und Vernetzung zu konzipieren. Um dieses Serviceportfolio an den Bedarfen der Oldenburger DH-Community ausgerichtet zu entwickeln, wurde im Dezember 2024 eine Umfrage durchgeführt. Ziel dieser Umfrage war es, zum einen den Status quo von Bekanntheit und Nutzung der Digital Humanities, ihren Methoden und Anwendungsgebieten an der UOL zu eruieren und zum anderen die Bedarfe und Wünsche der Teilnehmer*innen an den neuen Digital-Humanities-Service des BIS Oldenburg zu ermitteln. Wohin mit all dem “Kleinkram”? Zum Umgang mit Vorverarbeitungsskripten im HTR-Workflow 1Universität Freiburg, Deutschland; 2Bayerische Akademie der Wissenschaften, Deutschland In vielen DH-Projekten spielen kleine, oft ad-hoc erstellte Vorverarbeitungsskripte eine zentrale Rolle. Diese Skripte lösen spezifische Probleme, wie etwa die Datenbereinigung oder Formatkonvertierung, und sind häufig nicht dokumentiert oder nach dem Abschluss eines Projekts nicht mehr zugänglich. Dies stellt ein Problem für die Replizierbarkeit und Weiterentwicklung von Forschungsarbeiten dar. Im Rahmen des QuantiSlav-Projekts wurden zwei R-Skripte entwickelt, die Zeichenkodierungsprobleme in Transkriptionen beheben: eines zur Identifikation und Extraktion einzigartiger Zeichen und ein weiteres zur automatisierten Ersetzung nicht-standardisierter Zeichen in XML-Dateien. Diese Skripte sind in einer GitHub-Repository verfügbar und mit einer verständlichen Kurzbeschreibung versehen, die es anderen Forschenden erleichtert, sie anzupassen und weiterzuverwenden. Accessibility-Retrofit: Ein testgetriebenes Handlungsschema zur barrierefreien Umgestaltung digitaler Editionen Berlin-Brandenburgische Akademie der Wissenschaften, Germany Eine digitale Edition, die Barrierefreiheit nicht berücksichtigt, widerspricht den Prinzipien offener Wissenschaft. Allerdings wurde (und wird) das Thema nicht in der notwendigen Breite behandelt, wodurch weiterhin konkreter Handlungsbedarf besteht. In laufenden Editionsprojekten muss die Implementierung barrierefreier Inhalte deshalb nun im Nachgang der ursprünglichen Konzeption erfolgen. Das gilt auch für die von TELOTA betreuten Editionen an der BBAW. Am Test Case der digitalen Edition Jean Paul - Sämtliche Briefe entwickeln wir daher ein testgetriebenes Handlungsschema für eine solche nachträgliche Umsetzung barrierefreier Maßnahmen in digitalen Editionen. Das modulare Verfahren kombiniert etablierte Standards wie die Web Content Accessibility Guidelines (WCAG) mit Forschungserkenntnissen zum Thema inklusives (Forschungs-)Datenmanagement und Barrierefreiheit in digitalen Editionen. Es entsteht ein nachnutzbares, wartungsfreundliches Konzept, das als Best Practice für künftige Anpassungen bestehender digitaler Editionen dienen soll. Big Translation Data. Zum Potenzial angereicherter Bibliotheksdaten für die Übersetzungsforschung Universität Bielefeld, Deutschland In den letzten Jahren wurde zunehmend dazu aufgerufen, die Erforschung übersetzungsgeschichtlicher Fragestellungen mithilfe großer Datenmengen im Sinne einer „Big Translation History” zu skalieren. Hierfür eignen sich die Kataloge und Bibliografien von Nationalbibliotheken besonders gut, da sie dank ihres Sammelauftrags einen umfassenden Einblick in die gesamte literarische Produktion ermöglichen. Das vorgestellte Poster berichtet über die erste Studie, die sich literarischen Übersetzungen mit Deutsch als Zielsprache im Zeitraum von 1990 bis 2010 anhand von Katalogdaten widmet. Dabei kamen von der DNB erstellte Jupyter-Notebooks zum Einsatz, um über die SRU-Schnittstelle auf die MARC21-Datensätze zuzugreifen. Anschließend wurden die Daten mit OpenRefine bereinigt und mit Normdaten angereichert. Die Anreicherung von Bibliotheksdaten mit Normdaten birgt ein großes Potenzial für eine datenbasierte Übersetzungsgeschichte. Mithilfe dieser skalierbaren Datensätze lassen sich Erkenntnisse über die größten bis zu den kleinsten Übersetzungsströme gewinnen. Würzburgs ‘Häuserbuch ohne Häuser’: Digitale Zugänge zur Geschichte einer untergegangenen Stadt Universität Würzburg Das Projekt widmet sich der digitalen Rekonstruktion der historischen Stadtlandschaft Würzburgs auf Grundlage einer Vielzahl heterogener Archivalien aus dem 17. bis 19. Jahrhundert. Ziel ist es, die weitgehend zerstörte historische Bebauung wissenschaftlich zu dokumentieren und mit Informationen über Eigentumsverhältnisse, soziale Strukturen und Migrationsbewegungen anzureichern. Dazu werden schwer zugängliche, institutionell verstreute Quellen wie Ratsbücher, Steuerlisten und Urkunden digitalisiert, transkribiert, semantisch erschlossen und in einer relationalen Forschungsdatenbank zusammengeführt. Diese ermöglicht die Abbildung innerstädtischer sozialer und wirtschaftlicher Verflechtungen und bleibt durch den Einsatz modularer Technologien jederzeit erweiterbar. Ergänzt wird das Projekt durch eine interaktive Kartenansicht, in der Gebäude mit historischen Karten und Metadaten verknüpft werden. Umgesetzt wird das Vorhaben innerhalb eines modernen Javascript-basierten Web-Frontends und einer Geo-Datenbank, wodurch gezielte Recherchen und räumliche Visualisierungen möglich werden. So liefert das Projekt zugleich ein übertragbares Modell für vergleichbare Projekte in anderen Städten mit ähnlich großen historischen Verlusten. csRegistry - mehrere Versionen eines Briefes verknüpfen Berlin-Brandenburgische Akademie der Wissenschaften, Germany Briefeditionen sind zentrale Quellen für geisteswissenschaftliche Forschung, doch die Suche nach bestimmten Briefen gestaltet sich oft komplex. Der Webservice correspSearch bietet seit 2014 eine filterbare Suche über mehr als 350.000 Briefe aus unterschiedlichen wissenschaftlichen Publikationen. Eine Herausforderung stellen jedoch sogenannte Briefversionen dar – Fälle, in denen die Metadaten eines Briefes mehrfach aus verschiedenen Editionen aggregiert wurden. Zur Identifikation und Verknüpfung dieser Versionen wurde das Modul csRegistry entwickelt. Basierend auf den im Correspondence Metadata Interchange Format erfassten Briefmetadaten werden übergreifende csRegistry-URIs in einer MySQL Datenbank gespeichert und mit den URIs der Briefversionen verknüpft. Die csRegistry fungiert damit als Normdaten-ähnlicher Referenzpunkt und verbessert die Recherche nach Briefen. Das Poster zeigt die technische Umsetzung, den Workflow sowie die Integration in die Suchoberfläche von correspSearch. Von Wollknäueln und Grashüpfern: Ein SKOS-Vokabular zu Kosenamen in Liebesbriefen 1Technische Universität Darmstadt, Germany; 2Goethe-Universität Frankfurt am Main; 3Berlin Brandenburgische Akademie der Wissenschaften; 4Akademie der Wissenschaften und der Literatur Mainz Das 1998 gegründete Liebesbriefarchiv (Universität Koblenz und Technische Universität Darmstadt) hat zum Ziel, private Liebesbriefe von Bürger*innen aus der Mitte der Gesellschaft zu sammeln und zu digitalisieren, um diese Briefe als Quelle für wissenschaftliche Einblicke in die alltägliche, universelle Erfahrung romantischer Beziehungen zu erschließen. Im Rahmen des Studienretreats des Fachgebietes Computerphilologie der Technischen Universität Darmstadt wurde eine Auswahl von etwa 200 Liebesbriefen als Grundlage für die kollaborative Extraktion, Kategorisierung - nach Struktur (Komposita, Diminutivformen usw.) und Semantik (z.B. Elemente aus der realen Welt, wie Tiernamen) - und Analyse der Kosenamen zusammengestellt. Danach wurde eine digitale Taxonomie der Kosenamen mit EVOKS aufgebaut. Diese mithilfe eines nach festgelegten Regeln entwickelten Begriffssystems modellierten Informationen wurden von der Forschungsgruppe verwendet, um strukturiertes Wissen zu generieren und verborgene Patterns zu entdecken. Mit diesem Beitrag möchten wir unseren Arbeitsprozess, die Ergebnisse und Ideen für die Nachnutzung und Weiterentwicklung des Vokabulars sowie der Ressourcen des Liebesbriefarchivs veranschaulichen. FDM, OER, FAIR und was das mit DH zu tun hat. Herausforderungen und Lösungsideen aus SH Christian-Albrechts-Universität zu Kiel, Deutschland In der Hochschullehre soll neben fachspezifischem Wissen auch der Umgang mit Forschungsdaten gelehrt werden. Hierzu gibt es im deutschsprachigen Raum eine Vielzahl an Materialien. Diese FDM-Materialien thematisieren unterschiedliche Aspekte des Forschungsdatenmanagements, sind für verschiedene Zielgruppen sowie teilweise auch disziplinspezifisch konzipiert. Als Projekt, das im Rahmen des Digitalisierungsprogramms 4.0 in Schleswig-Holstein gefördert wird und aus der engen Anbindung an die schleswig-holsteinische Landesinitiative zum Forschungsdatenmanagement heraus, sollen bis Ende 2026 Materialien zur Schulung und Sichtbarkeit von Forschungsdatenmanagement so aufbereitet werden, dass sie als Open Educational Resources zur Verfügung gestellt werden können und dabei möglichst auch den FAIR-Prinzipen folgen. Mit der Einreichung sollen die Herausforderungen aufgezeigt werden, die eine solche Überarbeitung mit sich bringen und – sofern möglich – Lösungswege herausgestellt werden, wie ein Umgang damit möglich ist. entitySearch – One index to search them all Berlin-Brandenburgische Akademie der Wissenschaften, Deutschland Mit entitySearch entwickelt TELOTA seit Anfang 2025 einen Webservice, der Dateien im BEACON-Format aggregiert, mit Daten aus Normdateien anreichert und zur zentralen Suche bereitstellt. Auf diesem Weg können Register digitaler Editionen, Nachschlagewerke und anderer digitaler Ressourcen projektübergreifend mit wenigen Klicks durchsucht werden. Werden derzeit erstmal nur BEACONs mit GND-Identifiern aggregiert, so ist in Zukunft geplant, die Aggregation und Suche auf andere Entitäten bzw. Normdaten auszuweiten (GeoNames, Wikidata etc.). Außerdem sollen verschiedene APIs implementiert werden, über die die aggregierten Daten auch direkt in andere digitale Angebote eingebunden werden können. Projekte können ihre BEACONs über einen einfachen, aber kuratierten Prozess selbst im Dienst registrieren. Die Posterpräsentation möchte den Nutzen von entitySearch anhand des funktionsfähigen und öffentlich zugänglichen Prototyps veranschaulichen und die DH-Community zu Diskussion und Feedback einladen. teikiss – Ein Tool zur einfachen und nachhaltigen Publikation von TEI-Daten Berlin Brandenburgische Akademie der Wissenschaften (BBAW) Das Poster stellt teikiss (tei💋) vor, ein Open-Source-Toolkit zur Publikation von TEI-P5-Daten, das eine statische, clientseitige Architektur bereitstellt. teikiss verbindet TEI-basierte Textrepräsentationen mit Faksimiles, Metadaten und editorischen Apparaten zu einem robusten, einfach wartbaren und langfristig nutzbaren Interface, ohne die Komplexität serverseitiger Stacks. Der produktive Betrieb von Online-Editionen beinhaltet in vielen Fällen Datenbanken, Suchindizes und Middleware. Pflege und Wartung dieser Komponenten bindet dauerhaft Ressourcen, erzeugt Migrationspfade und erhöht das Ausfallrisiko nach Projektende. Perspektiven aus dem wissenschaftlichen und bibliothekarischen Umfeld haben die „Wohin-mit-der-Edition?“-Frage deutlich herausgearbeitet und damit die Relevanz einfacher, langlebiger Bereitstellungswege betont. teikiss antwortet mit einer Architektur, die auf dem Prinzip „Keep it simple, (stupid)!“ basiert und Ergebnisse mit minimalen Abhängigkeiten priorisiert. Analog – Digital – Virtuell. Ein inter- und transdisziplinärer Zugang zur Rezeption kunsthistorischer Objekte in unterschiedlichen medialen Kontexten 1Universität für Weiterbildung Krems, Österreich; 2Österreichische Galerie Belvedere, Österreich Das inter- und transdisziplinäre Projekt „Kunsterfahrung im (Post-)digitalen Zeitalter {original | digital | virtuell}“ (OrDiV) untersucht, wie sich die Wahrnehmung und Verarbeitung von Kunstwerken in Abhängigkeit vom medialen Format verändert. Im Fokus steht der Vergleich von originalen Kunstwerken, ihren digitalen Reproduktionen sowie Anwendungen im virtuellen Raum (Virtual und Augmented Reality). Theoretischer Ausgangspunkt ist dabei Walter Benjamins Aura-Konzept. Anhand von vier vergleichenden empirischen Studien im Oberen Belvedere Wien wird mittels Eye Tracking, qualitativen Interviews und Online-Befragungen das Betrachtungsverhalten von Museumsbesucher:innen analysiert. Dabei interessieren insbesondere Fixationsdauer, emotionale und kognitive Verarbeitung sowie die Erinnerung an einzelne Gemälde. Das Projekt verbindet kunsthistorische Forschung mit digitalen Analysemethoden und liefert neue Erkenntnisse für Museumspraxis und Digital Humanities. Das Poster präsentiert erste Ergebnisse und lädt zur Diskussion ein. MANO, Manuscripts Online: A Collaborative Platform for Digital Manuscript Studies Johannes Gutenberg-Universität Mainz, Germany MANO, Manuscripts Online, is a web-based platform designed to bridge the gap between theoretical knowledge and practical application in digital manuscript studies. It addresses challenges in teaching TEI by offering an accessible, collaborative environment where students can create manuscript metadata and work with transcriptions using intuitive, browser-based tools. Integrating GitHub for resource sharing and data storage, MANO supports real-time feedback and community-driven contributions. By simplifying complex professional workflows, the platform fosters hands-on learning and promotes confidence in digital methods. MANO serves as a pedagogical and collaborative space for developing core skills in digital humanities. Politische Texte zum Thema Klimawandel automatisch identifizieren: Ein XGBoost Modell Universität Potsdam, Deutschland Wir präsentieren einen Klassifikator zur automatischen Filterung von deutschen Texten, die das Thema Klimawandel ansprechen. Für das Englische existiert ein solches Modell bereits mit ClimateBERT (Webersinke et al., 2022), uns ist jedoch kein solches Tool für deutschsprachige Texte bekannt. Der Klassifikator wurde auf Texten von offziellen Organen der deutschen Partei AfD trainiert und wir zeigen, dass er auch parteiübergreifend das Thema zuverlässig erfasst. Der Klassifikator wird demnächst öffentlich gemacht, um Forschende bei der thematischen Textfilterung zu unterstützen. "Ein Freinttlichen Trunck": The Zechzettel Dataset for Handwritten Text Recognition and Information Retrieval 1University of Augsburg, Germany; 2Bucknell University, Pennsylvania, US The Zechzettel dataset provides a focused resource for evaluating Handwritten Text Recognition (HTR) under real-world historical variation. It contains over 1,800 digitized petitions submitted in 16th-century Augsburg, featuring diverse handwriting styles, dialectal language, and non-standard orthography. Expert transcriptions and document-level annotations preserve uncertainties and contextual features, while image-level labels describe visual attributes such as legibility and ink quality. Designed to go beyond standard metrics like CER and WER, Zechzettel enables systematic analysis of how manuscript variability affects HTR performance and downstream tasks such as information retrieval. Hybride Artefakte 1Leipzig; 2Universität Würzburg, Deutschland Hybride Artefakte sind insbesondere in den 1980er und 1990er Jahren eine Kombination aus Software und oft notwendigem Begleitmaterial. Gängige Bewahrungspraktiken vernachlässigen allerdings entweder den einen oder die andere Komponente, so dass die Artefakte selten als Ganzes sichtbar werden. Das Poster präsentiert eine Typologie anhand verschiedener Beispiele und zeigt Ansatzpunkte für eine zukünftig “ganzheitliche” Behandlung auf. Per Anhalter durch die Gutenberg-Galaxis: Entdeckungen und Ergebnisse aus dem Projekt “Mensch.Maschine.Kultur” 1Staatsbibliothek zu Berlin; 2Freie Universität Berlin Das Poster präsentiert die wesentlichen Erkenntnisse und Ergebnisse des Forschungsprojekts Mensch.Maschine.Kultur (MMK) an der Stabi Berlin, welches Verfahren des Maschinellen Lernens (ML) bzw. der Künstlichen Intelligenz (KI) für das kulturelle Erbe entwickelt und implementiert hat. Es werden die vier Teilprojekte zur KI-gestützten Dokument-, Bild- und Inhaltsanalyse sowie der Kuratierung und Bereitstellung zugehöriger Datensätze und Modelle vorgestellt. Die im Projekt entwickelten Methoden und Systeme aus den Bereichen Layoutanalyse, Texterkennung, Erkennung und Verlinkung benannter Entitäten, Bildanalyse und Bildähnlichkeit sowie (semi-)automatische Inhaltserschließung werden thematisiert. Innerhalb von MMK etablierte Standards und Praktiken zur Veröffentlichung der im Kontext dieser Verfahren erstellten und nachnutzbaren Datensätze sowie Modelle werden mit besonderem Fokus auf der Berücksichtigung ethischer, rechtlicher und sozialer Aspekte sowie Transparenz und Nachhaltigkeit aller Ergebnisse behandelt. Kombinieren statt neu trainieren. Zur automatisierten Erkennung diegetischen räumlichen Vokabulars mit Hilfe existierender Annotationen und Classifier Universität Rostock, Deutschland Mit unserem Beitrag erproben wird die Nachnutzung eines Classifiers zur automatisierten Erkennung von Ereignissen in Erzähltexten aus dem EvENT-Projekt zum Zwecke der Erkennung von räumlichem Vokabular, das auf Räume der erzählten Welt referiert. Mit diesem Ansatz kombinieren wir bereits vorhandene Annotationsdaten und Classifier aus verschiedenen Projekt-Kontexten zur Beantwortung neuer Forschungsfragen. Der Ansatz stellt damit eine Alternative dazu dar, neue Trainingsdaten und Classifier zu erzeugen. Die DH als soziales Vorhaben. Prinzipien und Methoden zur Integration sozialer Faktoren in die wissenschaftliche Projektarbeit 1Leibniz-Institut für Europäische Geschichte (IEG); 2Friedrich-Schiller-Universität Jena, Deutschland; 3Universität Bielefeld Die Digital Humanities (DH) sind ein inherent soziales Vorhaben, das auf der Zusammenarbeit verschiedener Disziplinen und Wissenschaftstraditionen basiert. Trotz dieser Erkenntnis werden soziale Faktoren in der operativen Projektarbeit oft noch vernachlässigt. Dieser Posterbeitrag zeigt auf, wie die charakteristische Stärke der DH – der reflektierte Methodentransfer zwischen Disziplinen – auch für den zwischenmenschlichen Umgang genutzt werden kann. Basierend auf konzeptionellen und erfahrungsbasierten Erkenntnissen werden konkrete Prinzipien und Methoden aus anderen Kontexten vorgestellt, die sich in drei Kategorien gliedern: Verstehen (wie etwa Systemisches Denken, Themenzentrierte Interaktion oder Positionierung), Vereinbaren (wie etwa Kontrakte und Schleifen oder erweiterte Projekt-Chartas) und Haltungen (wie etwa Balsamos Tugenden interdisziplinärer Forschung oder die systemische Lösungsorientierung). Wir sind überzeugt, dass die Integration sozialer Faktoren zur Risikominimierung beitragen, Einrichtungen nachhaltig stärken und die wissenschaftliche Praxis bereichern kann. Interdisziplinarität wird damit nicht nur inhaltlich, sondern auch zwischenmenschlich gelebt. FRBRize it! – Differenzierte Werkerfassung in digitalen Editionen am Beispiel Buber-Korrespondenzen Digital 1Goethe-Universität Frankfurt, Deutschland; 2Akademie der Wissenschaften und der Literatur Mainz, Deutschland Das Projekt 'Buber-Korrespondenzen Digital' (BKD) widmet sich der umfangreichen Korrespondenz des deutsch-jüdischen Religionsphilosophen Martin Buber (1878–1965). Die mehr als 43.000 überlieferten Briefe spiegeln den Netzwerkcharakter seines Wirkens und erlauben einen tiefen Einblick in die Entstehungs- und Publikationsprozesse der Werke sowohl Bubers als auch zahlreicher anderer Intellektueller des 20. Jahrhunderts. Für die Erfassung von Werken genügen BKD die herkömmlichen bibliographischen Methoden nicht: Das Projekt möchte vollständige Angaben zu einem Werk machen, wo diese vorhanden und relevant sind, aber dort ausreichend vage bleiben, wo es auch die Briefschreibenden sind, ohne dabei die Zusammenhänge zwischen diesen Werken zu verlieren. Ausgehend von diesen Bedarfen erprobt BKD ein innovatives System, das sich an dem ursprünglich für Bibliotheken entwickelten Modell FRBR (Functional Requirements for Bibliographic Records) orientiert. Das Poster zeigt am Beispiel der für Bubers Wirken zentralen 'Drei Reden über das Judentum' die differenzierte Dynamik des Modells und seiner Derivate. Informationsextraktion serieller Quellen 1Universität Bern, Walter Benjamin Kolleg, Schweiz; 2Universität Zürich, Institute of Evolutionary Medicine, Schweiz Das Poster demonstriert, wie serielle Quellen vom Digitalisat in weiterverarbeitbare Daten umgewandelt werden können. Anhand der Sterberegister der Stadt Zürich werden von Ansätzen der Computer Vision und Automatic Text Recognition mit Large Language Models kombiniert, um ohne manuelle Korrektur tabellarische Daten zu produzieren. Das Poster zeigt die technischen Ansätze und den aktuellen Stand eines konkreten Projekts. Im Einsatz evaluiert wurden Modelle der Transkribus Plattform, sowie offene YOLO und TrOCR-Modelle und LLMs, die von OpenAI bereitgestellt werden. D.h. es stehen geschlossene und offene Umsetzungen zur Verfügung. eManuSkript: Digital Tools for Palaeography Georg-August-Universität Göttingen eManuSkript is a two-year project developing a suite of browser-based applications to support the study of digitised medieval manuscripts. Funded by the Stiftung Innovation in der Hochschullehre, the project combines foundational training with advanced tools for paleographic and codicological analysis. The toolkit includes Proteus, a post-processing tool for enhancing difficult texts using multispectral imaging;Seshat, an interactive environment for handwriting analysis using user-defined pixel coordinates; Mergen, an AI-based model for page layout segmentation; and Fenius a digital application for modelling and documenting bookbinding and codicological structures. Each tool is accompanied by intergrated tutorials and is tested in classrooms. By supporting both annotation and structured measurement—of script, layout, and book structure—eManuSkript enriches the data layer of manuscript corpora and fosters new forms of digital scholarship. All tools and data will be made openly available via GitHub and Zenodo, promoting transparency, reuse, and pedagogical integration. Nicht nur Infrastruktur, nicht nur Tools. Basisdienste für die NFDI (und darüber hinaus) 1GESIS – Leibniz-Institut für Sozialwissenschaften Mannheim, Deutschland; 2Leibniz-Institut für Psychologie (ZPID), Trier, Deutschland; 3Niedersächsische Staats- und Universitätsbibliothek Göttingen, Deutschland Das Motto der DHd2026 „Nicht nur Text, nicht nur Daten“ hebt die wachsende Vielfalt digitaler Forschungsobjekte in den Geisteswissenschaften hervor. Die Nationale Forschungsdateninfrastruktur (NFDI) unterstützt dabei mit Base4NFDI, einer gemeinschaftlichen Initiative aller 26 NFDI-Konsortien, um disziplinübergreifende Basisdienste bereitzustellen. Für die Geisteswissenschaften werden Dienste wie RDMTraining4NFDI (Data Literacy-Trainings), Jupyter4NFDI (zentrale JupyterHub-Infrastruktur) und TS4NFDI (zentrale Terminologie-Services) bedarfsgerecht angepasst. Sie fördern Qualitätsstandards, Nachnutzung, Interoperabilität und Weiterbildung. Die Basisdienste unterstützen den kompletten Datenlebenszyklus, ermöglichen transdisziplinäre Zusammenarbeit und befähigen Institutionen, Digital Humanities zu vermitteln und Trainings anzubieten. Das Poster zeigt Beispiele und veranschaulicht den Mehrwert der NFDI-Services für die geistes- und kulturwissenschaftliche Forschung. Perspektiven für ein anfängerfreundliches Tool zur Eye-Tracking-Datenvisualisierung in der kognitiven Kunstgeschichte Universität Wien, Österreich Kognitionswissenschaftliche Methoden, insbesondere Eye-Tracking, eröffnen neue Perspektiven für die kunsthistorische Forschung, vor allem zur Analyse von Wahrnehmungs- und Rezeptionsprozessen von Bildern. Bestehende Softwarelösungen sind jedoch meist technisch komplex oder nicht auf typische Anforderungen der Kunsthistoriker*innen zugeschnitten. Im Labor für empirische Bildwissenschaft (Lab for Cognitive Research in Art History, CReA) der Universität Wien entsteht daher „creapy“, eine Open-Source-Python-Bibliothek mit einer grafischen Benutzeroberfläche „creapy.io“ (PySide6/Qt), die eine anfängerfreundliche Visualisierung von Eye-Tracking-Daten ermöglicht. Die aktuelle, bereits prototypisch eingesetzte Version erlaubt ohne Programmierkenntnisse die Erstellung von Fixations-Heatmaps, Sakkaden-Heatmaps und Scanpath-Visualisierungen auf Basis von CSV-/Excel-Dateien gängiger Eye-Tracking-Systeme. Voreinstellungen reduzieren den Analyseaufwand auf wenige Entscheidungen, während optionale Regler feinere Auswertungen für fortgeschrittene Nutzer*innen erlauben. Mittelfristig werden komplexere Funktionen wie raumzeitliche Verläufe und Ähnlichkeitsvergleiche ergänzt und unter einer freien Lizenz öffentlich bereitgestellt. Ziel ist es, Studierenden und Forschenden den niedrigschwelligen Einstieg in die Eye-Tracking-Analyse zu ermöglichen und diese nachhaltig in der kognitiv-kunsthistorischen Praxis zu verankern. Räume des Erinnerns: Digitale Kartierung der baltendeutschen Diaspora in der Zeitung „Baltische Briefe“ mittels NER und geohistorischer Analyse Friedrich-Alexander Universität Erlangen-Nürnberg, Germany Das Poster stellt ein laufendes Projekt zur digitalen Kartierung der baltendeutschen Diaspora anhand der Zeitung „Baltische Briefe“ vor. Mit Hilfe von NER, Wikidata und interaktiven Karten wird das räumliche Gedächtnis nach 1945 sichtbar gemacht. Geplant ist die Erweiterung durch QGIS, um historische Basiskarten, diachrone Animationen und tiefere räumliche Analysen zu ermöglichen. Ziel ist es, raumbezogene Erinnerung als Teil digitaler Geschichtsforschung greifbar zu machen und neue methodische Ansätze für Spatial Humanities in der deutschsprachigen DH-Community zu entwickeln. Automatisierte Typklassifikation von Normdaten mit BERT Otto-Friedrich-Universität Bamberg, Lehrstuhl für Medieninformatik, An der Weberei 5, 96047 Bamberg, Deutschland Normdaten sind zentral für die Interoperabilität geisteswissenschaftlicher Daten. Die an der Otto-Friedrich-Universität Bamberg entwickelte integrierte Suchplattform ADISS integriert verschiedene Normdatenquellen wie GND, Wikidata oder Geonames, jedoch bislang ohne einheitliche Typisierung. Dies erschwert eine gezielte Facettierung bei der Suche. Ziel des Projekts ist daher ein System zur automatisierten Typenzuordnung mittels maschinellen Lernens. Auf Basis von BERT soll ein Klassifikator trainiert werden, der Normdatensätze in ein reduziertes Zielschema überführt. Trainingsdaten entstehen durch Mapping zwischen GND- und Wikidata-Datensätzen. Neben Quelltypen werden Name und Beschreibung des jeweiligen Normdatensatzes als semantische Features genutzt. Erste Experimente mit einem auf einem multilingualen BERT-Modell als Encoder basierenden hierarchischen Klassifikator zeigen vielversprechende Ergebnisse. Künftig sollen die Datenbasis und Modellparameter optimiert werden, um eine robuste, domänenübergreifende Typisierung zur Verbesserung der Suchfunktionalität in ADISS zu ermöglichen. Advanced Layout-Analysis für glossierte Handschriften Universität Graz, Austria In diesem Poster präsentieren wir eine Gegenüberstellung von zwei Layouterkennungs-Environments: YOLO und Kraken (außerhalb der eScriptorium-Umgebung). Dafür verwenden wir YOLOv12 und Kraken 5.3.0 mit den bereits annotierten Ground-Truth-Daten aus dem GlossIT-Korpus. Dieses Korpus wird im Zuge des ERC-Consolidator Grant Projekts “Celtic and Latin glossing traditions: uncovering early medieval language contact and knowledge transfer” (Grant Agreement Nr. 101123203) erstellt. Ziel des Projekts ist es, Sprachkontakt und Wissenstransfer im frühmittelalterlichen Westeuropa zu untersuchen. Wissenslücken überbrücken: Das Kommentierungskonzept im Editionsprojekt „William Lovell digital“ Universität Würzburg, Deutschland Eine digitale Edition zeichnet sich dadurch aus, dass der edierte Text nicht nur vollständig wiedergegeben, sondern auch erschlossen wird (Sahle 2016, 23). Ein möglicher Weg zur Erschließung eines Textes ist die Kommentierung, die in unterschiedlichsten Ausführungen Bestandteil digitaler Editionen sein kann. Welchen Regeln die Kommentierung folgt, bleibt jedoch häufig im Dunkeln. Editorische Berichte digitaler Editionen haben nur selten ein dem Kommentierungskonzept gewidmetes Kapitel. Im Rahmen des Editionsprojekts William Lovell digital ist ein Kommentierungskonzept entstanden, das auf Transparenz setzt und beispielsweise die Auswahlkriterien der Referenztexte und der kommentierungswürdigen Begriffe im stellenbezogenen Kommentar offenlegt. Die digitale Umsetzung der Edition ermöglicht dabei die Vernetzung mit zeitgenössischen Nachschlagewerken, die in digitalisierter oder digitaler Version im Web verfügbar sind. Diese Form der Kommentierung wirft Fragen hinsichtlich der Auswahl von Referenztexten, der Datenmodellierung, der Nachhaltigkeit und der Usability des Webinterfaces auf. Mapping DH: Kollaborative Dokumentation von Digital Humanities-Initiativen im Semantic Web 1Universität Münster, Deutschland; 2Universität Hamburg, Deutschland; 3Universität Trier, Deutschland; 4Ruhr-Universität Bochum Das Poster stellt das Projekt Mapping DH vor, in dem Daten über DH-Initiativen weltweit gesammelt, für das Semantic Web modelliert und als offenes Wissensnetz zur Verfügung gestellt werden. Es zeigt die grundsätzliche Datenstruktur, benennt Chancen und Herausforderungen und eröffnet die Möglichkeit, kollaborativ weiter ausgebaut zu werden und als Ergänzung und Verbindung bestehender Verzeichnungen von DH-Studiengängen, -Zentren, -Professuren etc. zu dienen. Schließlich umreißt es die Idee eines Maturity-Modells, anhand dessen der Reifegrad einer bestimmten DH-Initiative abgelesen werden kann. Ökologisch und Langlebig – Nachhaltige Digitale Editionen am Beispiel von Moravians@Sea Sächsische Akademie der Wissenschaften, Deutschland Digitale Editionen tragen eine Verantwortung nicht nur für ihre wissenschaftliche Qualität, sondern auch ihre Langzeitverfügbarkeit und den sparsamen Umgang mit Ressourcen. Das Projekt Moravians@Sea verbindet die FAIR-Prinzipien mit ressourcenschonender Publikation der Forschungsergebnisse. Das Poster stellt das Projekt und die dabei angewandten FAIR-ökologischen Kriterien vor. Die DDR im TikTok-Feed: Zwischen Algorithmus und Erinnerung 1Universität Leipzig, Deutschland; 2Sächsische Akademie der Wissenschaften zu Leipzig Das Projekt AlgorithMIX #DDR untersucht, wie die DDR auf TikTok verhandelt wird – unter Bedingungen algorithmischer Kuratierung und eingeschränkter Sichtbarkeit. Im Zentrum steht ein hybrider Zugang, der qualitative Videoanalyse mit API-basierten Metadaten-Auswertungen kombiniert. Eine Nutzerstudie und eine umfangreiche API-Abfrage bilden die Grundlage für ein Korpus, das mittels Grounded Theory, Kollokationsanalysen und weiterführendem Topic Modeling systematisch ausgewertet wird. Ziel ist es, erinnerungskulturelle Diskursstrukturen unter plattformspezifischen Bedingungen sichtbar zu machen und zugleich die methodischen Grenzen datenbasierter Forschung auf TikTok für die Geschichtswissenschaften kritisch zu reflektieren. Durch die Verbindung empirischer Zugriffspraxen mit theoretischer Modellierung liefert das Projekt einen Beitrag zur Analyse digitaler Geschichtsdiskurse in algorithmischen Öffentlichkeiten. Historische Ortsdaten – Wieso, weshalb, warum – und vor allem, wie? 1Martin-Luther Universität Halle-Wittenberg, Deutschland; 2Institut für Sächsische Geschichte und Volkskunde; 3Herder-Institut für historische Ostmitteleuropaforschung – Institut der Leibniz-Gemeinschaft Historische Ortsdaten müssen aufgrund der zunehmenden Vernetzung von Forschungsdaten einer neuen, zeitgemäßen Auseinandersetzung hinsichtlich ihrer Erfassung und Kuration unterworfen werden. Die oftmals nur inadäquat und häufig beiläufig mitgeführten Daten historischer Orte stellen eine kaum genutzte Datenschnittstelle dar, die durch ihre ‚stiefmütterliche‘ Behandlung mittlerweile von einer schlecht genutzten Chance zum handfesten Problem für viele Forschungsprojekte und historische Datenbanken geworden ist. Sowohl die Nichtexistenz von einheitlichen Erfassungsvorgaben sowie das Fehlen einer zentralen Verzeichnungs- und Verwaltungsstelle für historische Ortsdaten erschweren nicht nur die Verortung und Identifikation der eigenen Forschungsergebnisse, sondern auch die Weiternutzung der einmal mühselig erhobenen Daten durch andere Projekte. Trotz der offensichtlichen Schwierigkeiten bilden historische Ortsdaten für breite Teile der historisch-geisteswissenschaftlichen Forschung einen gemeinsamen Nenner, den es zu erschließen und effektiv nutzen gilt. Das Poster stellt einen speziell für historische Ortsdaten konzipierten Minimaldatensatz vor, der einen sichereren Umgang und erste Lösungsansätze für die vielschichtige Arbeit Ortsdaten vermittelt. Illuminated Charters and AI - Impact of Modernizing the Monasterium.net Platform 1Universität Graz, Österreich; 2Österreichische Akademie der Wissenschaften, Wien Das Projekt „Illuminierte Urkunden“ (IllUrk) nutzt die Plattform Monasterium.net, Europas größte digitale Sammlung von Urkunden. Über 4.400 Dokumente mit dekorativen Elementen werden in drei Stufen klassifiziert. Die Erfassung und Beschreibung dieser Elemente ist eine wissenschaftliche Herausforderung, da visuelle Aspekte in Archivalien oft nicht verzeichnet sind. Das ERC-Projekt DiDip entwickelt mit MOM-NG eine neue technische Infrastruktur, die moderne Methoden des maschinellen Lernens einsetzt. Dazu gehören Objekterkennung (YOLOv5), Klassifikation, Bildausschnitt-Extraktion (IIIF) sowie Ähnlichkeitssuche mit Embeddings und Graph-Neural-Networks. So können visuelle Merkmale automatisch identifiziert, verglichen und in Beziehung zu bestehenden Taxonomien gesetzt werden. MOM-NG erweitert damit die Forschungsmöglichkeiten zu illuminierten Urkunden: von der Vorauswahl relevanter Quellen bis zur statistischen Analyse stilistischer Entwicklungen. Der Beitrag stellt das System MOM-NG im Entwicklungsstand 2026 vor und zeigt exemplarisch Anwendungsfälle aus dem IllUrk-Projekt. Text trifft Tool und heraus kommen Daten. Eine Selbstlerneinheit zu domänenspezifischer Data Literacy in der Literaturwissenschaft Universität Bielefeld, Deutschland Die digitale Transformation wissenschaftlicher Praxis erfordert auch in der Literaturwissenschaft domänenspezifische Datenkompetenzen. Die vorgestellte digitale Selbstlerneinheit vermittelt Grundlagen der Data Literacy mit Fokus auf die Operationalisierung literaturwissenschaftlicher Fragestellungen. Entwickelt im Rahmen der Community of Practice „Data Literacy“ (BiLinked) an der Universität Bielefeld, richtet sie sich an geisteswissenschaftliche Lehrende und Studierende ohne Vorerfahrung in den Digital Humanities. Über ein interaktives, in Moodle eingebundenes Branching Scenario mit vier Vertiefungen erwerben Lernende praxisnahes, prozedurales Wissen im Umgang mit digitalen Werkzeugen wie SentText oder dem R-Paket stylo. Datengrundlage ist ein annotiertes Korpus von 125 Bildungsromanen. Ziel ist der reflektierte Einsatz quantitativer Methoden, einschließlich der kritischen Auseinandersetzung mit Tools, Algorithmen und Datenquellen. Die Einheit fördert so methodisches Verständnis und Urteilskompetenz im Umgang mit digitalen Analyseverfahren in der Literaturwissenschaft. Grenzen schneller Skalierung erkennen und bewältigen. Automatische Erschließung von Wappenbildern in den Handschriften der Bibliothèque nationale de France Humboldt-Universität zu Berlin, Deutschland Das Poster präsentiert ein Projekt über die skalierte automatische Erschließung von Wappenbildern in vormodernen Handschriften mittels Computer Vision. Basierend auf einem auf vormodernen Handschriften selbsttrainierten YOLO-Detektormodell wurde ein iterativer Trainingsansatz entwickelt und auf das gesamte Korpus digitalisierter mittelalterlicher Handschriften der Bibliothèque nationale de France angewendet. Die Evaluation zeigt deutliche Unterschiede zwischen den Jahrhunderten: Während das 12.-14. Jahrhundert geringere Genauigkeitswerte aufweist, erzielen das 15.-16. Jahrhundert bessere Ergebnisse. Das Projekt verdeutlicht sowohl die Potentiale als auch die Herausforderungen der Skalierung: Mit wachsenden Datensätzen nehmen unerwartete False Positives zu, die durch zusätzliche Detektionsklassen abtrainiert werden müssen. Die Ergebnisse zeigen, dass eine iterative Skalierung erforderlich ist, um das versprochene Potential digitaler Methoden für die Erschließung großer Quellenkorpora zu realisieren. harMo13 – Computergestützte Analyse von Motetten des 13. Jahrhunderts Universität zu Köln, Deutschland Das Forschungsprojekt harMo13 beschäftigt sich mit der computergestützten Analyse von Motetten des 13. Jahrhunderts, die aufgrund ihrer komplexen Faktur eine zentrale musikalische Gattung des Mittelalters darstellen. Ein Ziel des Projekts ist die Entwicklung und Open-Source-Bereitstellung einer Python-basierten Softwarebibliothek. Der derzeitige Prototyp umfasst ein Datenmodell, das ein Interface für ein umfangreiches Processing in verschiedenen Abstraktionsgraden bereitstellt, und darauf aufbauende Analysewerkzeuge, z. B. für die Identifikation ähnlicher Harmonisierungen oder Abschnittsbildungen. Zudem wurde im Rahmen des Projekts ein adaptives Kategorisierungssystem für Klänge entwickelt, das bezüglich Kategorien und Granularität anpassbar und in das Datenmodell integriert ist. Durch die Trennung von Datenmodell und Analyse erfüllt die Software die spezifischen Anforderungen hinsichtlich des Projektkorpus, ist aber gleichzeitig nicht auf diesen beschränkt und daher auch für die Analyse anderer Gattungen offen. BASIC als natürliche Sprache Universität Stuttgart, Deutschland Wir analysieren in unserem Beitrag, in welchem Maße sich strukturelle Merkmale in der Programmiersprache BASIC mit Methoden der natürlichen Sprachverarbeitung (NLP) erfassen und systematisch untersuchen lassen. Unser Korpus besteht aus 99 Quelldateien von Spielen, welche von Hobby-Programmierern in den 1980er Jahren entwickelt wurden. Die Analyse orientiert sich an etablierten NLP Verfahren auf Textdateien und ist in drei Analyseebenen untergliedert. Die Mikro-Ebene umfasst hierbei die Analyse von N-Gram-Frequenzen auf Token-Basis. Auf der Meso-Ebene wird der Programmfluss analysiert, während die Makro-Ebene den frequenzbasierten Vergleich zwischen den Spielen umfasst. Die hierbei identifizierten Strukturen zeigen deutliche Analogien zu bekannten Mustern in natürlicher Sprache. Dies deutet darauf hin, dass die Programmiersprache BASIC strukturelle Gemeinsamkeiten mit natürlichen Sprachen hat und mit NLP-Methoden analysierbar ist. DH on the Edge? 1Fachhochschule Erfurt; 2Universität Erfurt Mit Tiny ML, Edge AI oder Efficient AI etabliert sich parallel zu LLMs ein Forschungsfeld, das auf die Entwicklung kleiner, energie- und kosteneffizienter und lokal ausführbarer Deep-Learning-Modelle abzielt. Zentral ist hier das Deployment auf Edge Devices (z.B. Mikrocontroller, Raspberrry Pi, Smartwatches etc.). Für die DH ergeben sich Vorteile primär aus der Möglichkeit der dezentralen Datenverarbeitung direkt am Erfassungsort sowie der leichteren und günstigeren Verfügbarkeit von entsprechender Hardware gegenüber HPC-Infrastruktur oder fremdgehosteten, potentiell kostenpflichtigen LLMs, z.B. in archäologischer Feldforschung, partizipativen Citizen-Science- oder Oral-History-Projekten oder im Bereich des kulturellen Erbes. Für diesen Beitrag wurden Mistral, BERT und mehrere komprimierte und quantisierte BERT-Modelle im Kontext eines Named-Entity-Recognition-Tasks miteinander verglichen. Dabei zeigte sich, dass komprimierte Modelle nur marginal an Performance verlieren, aber deutlich kleiner und schneller sind, sodass Edge Deployment vorstellbar ist. Die Performance von Mistral war in diesem Beispiel deutlich schlechter als die Performance der spezialiserten BERT-Modelle. How to Chat with the History of European Drama. Connecting DraCor with a Large Language Model Using an MCP Server 1Universität Potsdam, Deutschland; 2Freie Universität Berlin, Deutschland Dieser Beitrag berichtet über die Implementierung und Evaluierung eines Model Context Protocol (MCP) Servers für DraCor. Dieser ermöglicht es Large Language Models, autonom mit der DraCor API und weiteren Ressourcen von dracor.org zu interagieren. Zur Evaluation des Tools kam ein qualitativer Ansatz aus systematischer Beobachtung und eidetischer Variation (Husserl) zur Anwendung, mit dem Ziel zu verstehen, wie LLMs sich beim Verwenden von MCP-Tools verhalten, und dabei "Tool Correctness", "Tool-Calling Efficiency" und "Tool-Use Reliability" zu beurteilen. Unsere Erkenntnisse unterstreichen die kritische Bedeutung des "Docstring Engineering" – der strategischen Gestaltung von Tool-Dokumentation zur Optimierung der LLM-Tool-Interaktion. Der DraCor MCP-Server zeigt das Potenzial von "Agentic AI" Anwendungen sowohl für die Forschung in den Computational Literary Studies als auch für Forschungsinfrastrukturen in den DH auf. forTEXT Zeitschrift: Der Redaktionsprozess vom Call for Papers bis zur Publikation fortext lab, Technische Universität Darmstadt, Deutschland forTEXT Journal ist eine deutschsprachige Diamond-Open-Access-Zeitschrift, mit der wir den Austausch über digitale Methoden und Ansätze in Forschung und Lehre der Digital Humanities nachhaltig fördern und institutionell verankern möchten. Als Fortführung des forTEXT-Portals stützt sich das Konzept der Zeitschrift auf dessen grundlegende Ansätze und Prinzipien. Auf dem Poster präsentieren wir die Entwicklung der 2024 gegründeten Zeitschrift. Wir skizzieren den redaktionellen Workflow vom Call for Papers bis zur Publikation und stellen dar, wie wir die Portalprinzipien – Niederschwelligkeit, Nachnutzbarkeit und Praxisorientierung – in den vergangenen zwei Jahren für das Format einer wissenschaftlichen Zeitschrift konzipiert, erprobt und iterativ weiterentwickelt haben. Vom Gelehrten zum Problem - Maschinelle Datierung von Leibniz-Handschriften: Die Anwendung von Deep-Learning-Verfahren zur Unterstützung der historisch-kritischen Editionsarbeit 1Berlin-Brandenburgische Akademie der Wissenschaften; 2Hasso-Plattner-Institut Seit 1901 stellt die Datierung von Leibniz’ handschriftlichen Seiten eine enorme Herausforderung dar: Viele Dokumente sind undatiert, traditionelle Methoden wie Experteneinschätzung oder Papier-Wasserzeichenanalyse zu langsam. Wir untersuchen, ob Deep‑Learning-Bildmodelle diese Lücke schließen können. Ziel ist die feingranulare Datierung anhand des Schreibstilwandels von Leibniz über fast fünf Jahrzehnte – anders als in bisherigen Studien zur Handschriftenaltersbestimmung, die oft verschiedene AutorInnen vergleichen. Etwa 600 Seiten (1669–1716) mit dokumentierten Datierungen bilden unser Jahrgangskorpus. Modelle wie CNNs und Vision Transformer helfen binarisierte und normalisierte Bilddaten zu untersuchen und externe Faktoren wie Papierstruktur zu ignorieren. Das übergreifende Ziel ist, KI-Ansätze praktikabel in die editorische Arbeit zu integrieren – mit offen freigegebenen Modellen und Skripten unter FAIR-Prinzipien. Große Ideengeschichte auf Small Data. Eine Mixed-Methods-Untersuchung zur Raumsemantik in Thomas Manns Doktor Faustus Universität Bielefeld, Deutschland Dieser small-data Beitrag aus den Computational Literary Studies (CLS) liefert eine raumsemantische Einzeltextstudie zu Thomas Manns Doktor Faustus (1947). Ziel ist die Untersuchung der semantischen Kodierung von Raum des „Deutschlandromans“ (Vaget 2015, 69) unter der Hypothese, dass wesentliche Anteile der raumreferentiellen Komposition mit Manns Namen-Chiffren ‚Luther‘ und ‚Hitler‘ korrespondieren. Der Reformationszeit-bezogene Figurenrenraum Kaisersaschern korrespondiert deutlich mit der Chiffre ‚Luther‘, während München nicht ‚Hitler‘, sondern ein modernes (Groß-)Bürgertum repräsentiert. Der Nationalsozialismus wird erst im dritten Raum ‚Pfeiffering‘ indiziert, in Synthese mit der archaischen Kaisersaschern- und der modernen München-Semantik. Als Beitrag zur digitalen literarischen Kulturerbeforschung möchte die Einreichung mit einem dezidiert datenbasierten (einzel-)textzentrierten Ansatz stärker an eine hermeneutische und textphilologische Literaturwissenschaft anknüpfen. Code, Context, Canon: A Transferable Framework for Computational Canon Studies Computational Humanities group, Leipzig University, Germany This poster presents a transferable computational framework for studying canonisation processes through extracting and analysing canonical references in academic texts. Using a 16-discipline English corpus from JSTOR, we propose a three-phase methodology: code (developing Named-Entity Recognition methods for canonical reference extraction), context (visualising citation patterns), and canon (understanding formation processes). Our approach examines transferability at each stage: the code phase explores large language models over traditional keyword search methods, emphasising advantages of general over domain-specific models; the context phase demonstrates high transferability through established network analysis techniques; the canon phase reveals how the concept of canon itself transfers across disciplines. This iterative workflow contributes reusable and transferable Digital Humanities frameworks for studying cultural authority and textual transmission, with the objective of advancing understanding of canonisation dynamics across disciplinary contexts. | ||