Conference Agenda
Overview and details of the sessions of this conference. Please select a date or location to show only sessions at that day or location. Please select a single session for detailed view (with abstracts and downloads if available).
|
Session Overview |
| Session | ||
Mittwoch, 3:4: Mittwoch, 3:4 – Graphen Netzwerke
| ||
| Presentations | ||
Digitales Entdecken im Graph: Einfache Zugänge zu komplexen Netzwerken TH Mittelhessen, University of Applied Sciences, Deutschland NAKAR (Navigation und Erschließung von Knowledge-Graphen in Augmented Reality) ist eine Anwendung zur explorativen Analyse komplexer Netzwerkdaten. Mittels szenariobasierter Navigation, interaktiver Visualisierungen, Drilldown-Funktionen und der Anbindung externer Datenquellen (z. B. Wikidata, GND) erlaubt NAKAR eine flexible Erschließung semantischer Strukturen. Die Anwendung unterstützt sowohl gezielte Analysen als auch offene Erkundungen und eignet sich für verschiedene disziplinäre Kontexte - etwa zur Untersuchung historischer, literarischer oder sozialer Netzwerke. Szenarien lassen sich individuell konfigurieren, speichern und teilen, wodurch unterschiedliche Analysepfade und Perspektiven ermöglicht werden. NAKAR verbindet visuelle Exploration, Datenintegration und methodische Steuerung in einer gemeinsamen Arbeitsumgebung und eröffnet damit neue Zugänge zur Arbeit mit heterogenen Beziehungsdaten. Reasoning als Erkenntnisinstrument der Geisteswissenschaften 1Akademie der Wissenschaften und der Literatur | Mainz; 2Philipps-Universität Marburg Reasoning-Ansätze in Knowledge Graphen verfügen über großes Potenzial, implizites Wissen in Datenstrukturen der digitalen Geistes- und Kulturwissenschaften explizit zu machen, existierende Datenbasen maschinenlesbar zu erweitern und zusätzliche Analyseperspektiven zu eröffnen. Durch die spezifischen kulturellen und wissenschaftshistorischen Kontexte geisteswissenschaftlicher Daten beginnt der Erkenntnisprozess bei einem solchen Vorgehen allerdings bereits in der Produktion von Code als Formulierung und Formalisierung von Prämissen und argumentativen Konstrukten, sei es zur Selektion der Daten, sei es zu Algorithmen und Abfragen des reasoning selbst. Damit stellt Code einen essentiellen Teil der Argumentationskette und des wissenschaftlichen Outputs dar, der für die Nachvollziehbarkeit und Reproduzierbarkeit des Forschungsprozesses unerlässlich ist und auch für nicht-technische Expertinnen Transparenz schafft. Der Beitrag erprobt dieses Potenzial semantischen reasonings anhand eines Beispiels aus der digitalen Briefforschung. Er wird dabei von einem jupyter notebook begleitet, in dem der Prozess dokumentiert und so die computationelle Verarbeitung direkt mit der fachdisziplinären Auswertung und Interpretation verbunden wird. Literaturgeschichte modellieren: Ähnlichkeitsstrukturen, Kanonisierung und Netzwerkperspektiven TU Darmstadt, Deutschland Dieser Beitrag zeigt, wie sich Literaturgeschichte quantitativ modellieren lässt, indem Ähnlichkeiten, Kanonisierungsprozesse und Netzwerke in der englischen und deutschen Literatur von 1688 bis 1914 untersucht werden. Mit computergestützten Methoden werden Beziehungen zwischen Texten analysiert, um Kanonisierungsprozesse als vernetzte Entwicklungen sichtbar zu machen. Durch die Verbindung von Netzwerkanalysen und Textähnlichkeiten entstehen neue Einblicke in die Struktur und Entwicklung literarischer Felder, die traditionelle literaturhistorische Zugänge sinnvoll ergänzen. | ||
