Inhaltserschließung für Forschungsdaten: TextGrid Repository, Normdaten und Basisklassifikation
José Calvo Tello, Stefan Funk, Daniel Kurzawe, Ubbo Ventjeer
Niedersächsische Staats- und Universitätsbibliothek Göttingen
Bibliotheken verwenden Klassifikationssysteme für die Sach- und Inhaltserschließung von Primär- und Sekundärliteratur. Für andere Arten von Publikationen, wie z.B. Forschungsdaten, werden sie jedoch nicht eingesetzt. In diesem Beitrag wird die Einführung eines solchen Klassifikationssystems in das TextGrid Repository vorgestellt, das für textuelle Daten (Editionen und Korpora) in XML-TEI geeignet ist. Konkret wird die Basisklassifikation verwendet, ein offenes und im deutschsprachigen Raum weit verbreitetes Klassifikationssystem mit einer mittleren Anzahl von Klassen. In diesem Beitrag möchten wir dafür plädieren, dass Bibliotheken eine aktivere Rolle bei der Beschreibung von Forschungsdaten übernehmen sollten, weil dies zu einer Verbesserung des FAIR-Status der Forschungsdaten führt.
Total Error Sheets for Datasets (TES-D) zur Dokumentation Digitaler Verhaltensdaten
Leon Fröhling1, Indira Sen1, Felix Soldner1, Leonie Steinbrinker2, Maria Zens1, Katrin Weller1,3
1GESIS, Deutschland; 2Universität Leipzig, Deutschland; 3CAIS, Deutschland
Die in den Sozialwissenschaften zunehmend zur Untersuchung bekannter Verhaltensmuster und neuartiger Kommunikationsphänomene verwendeten digitalen Verhaltensdaten sind häufig das Resultat eines mehrstufigen Prozesses der Datensammlung. Die bereits zur Sammlung der Daten zu treffenden Designentscheidungen können sich auf häufig unerwartete Weise in der Zusammensetzung und Qualität des resultierenden Datensatzes niederschlagen. Zur besseren Erkennung, Dokumentation und Kommunikation systematischer Verzerrungen, Eigenheiten und potenzieller Fehler in Datensätzen digitaler Verhaltensdaten präsentieren wir die Total Error Sheets for Datasets (TES-D). Das TES-D leitet Forschende durch die kritische Reflektion des Prozesses der Datensammlung und unterstützt bei der Erstellung einer umfänglichen Dokumentation des resultierenden Datensatzes.
Das “TOSCA Modelling Tool” – nachhaltige Dokumentation von Forschungssoftware
Claes Neuefeind, Marcel Schaeben, Philip Schildkamp
Universität zu Köln, Deutschland
Für die Nachnutzbarkeit von Forschungsanwendungen, welche einen zunehmenden Anteil wissenschaftlicher Forschungsergebnisse ausmachen, ist Dokumentation unerlässlich. Dies betrifft neben nutzungsorientierten Bedienungsanleitungen auch die technische Dokumentation der Funktionalität und Betriebsbedingungen solcher Applikationen. Wir schlagen daher vor, den TOSCA-Standard für die Beschreibung von Forschungsanwendungen, deren Bereitstellung und Laufzeitumgebungen einzusetzen und stellen dazu in unserem Beitrag das durch NFDI4Culture geförderte “TOSCA Modelling Tool” vor. Dabei handelt es sich um einen Desktop-basierten, visuellen Editor zur TOSCA-konformen Modellierung von Anwendungen und deren Laufzeitumgebung. In unserem Beitrag präsentieren wir die zentralen Konzepte des TOSCA-Standards und Anwendungsbeispiele für das “TOSCA Modelling Tool”.
“FAIR Collections as Data”: Services von Kulturerbeeinrichtungen für die datengetriebene Forschung
Kathi Woitas
Zentralbibliothek Zürich, Schweiz
Mit dem Konzept Digital Scholarship wird die digitale Transformation der Wissenschaft beschrieben. Bestände aus Kulturerbe-Institutionen stellen hierbei eine unverzichtbare Grundlage für datengetriebene Forschungsansätze in den Geisteswissenschaften dar. Mit deren breiter Aufbereitung und Kuration als Datenkonvolute könnte die Verfügbarkeit von FAIRen Forschungsdaten im grossen Umfang erhöht werden. Collections as Data als ideeller und praktischer Ansatz im Kulturerbe-Sektor, um die computergestützte Nutzung der Bestände zu ermöglichen und zu vereinfachen, bietet hierfür einen vielversprechenden Ausgangspunkt. Mit der breiten Umsetzung von «FAIR Collections as Data» können Bibliotheken die zentrale Basis für die Entwicklung von Digital Scholarship Services legen.
|