GeNeMe 2025
Gemeinschaften in Neuen Medien
17. - 19. September 2025 in Dresden
Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
|
Sitzungsübersicht |
| Sitzung | ||
Digital Education: AI
| ||
| Präsentationen | ||
ID: 1114
/ DigEd - KI: 1
Forschungsbeitrag Themen: Track - Digital Education Stichworte: Adaptive Lernumgebungen, Formatives Feedback, Instruktionsdesign, Künstliche Intelligenz Instruktionsdesign und Künstliche Intelligenz in Lernumgebungen: Entwicklung eines kompetenz- und outputvaliden adaptiven Feedbacksystems in der Hochschulbildung TU Dresden, Deutschland <p><em>Die Integration Künstlicher Intelligenz (KI) in Bildungsumgebungen gewinnt zunehmend an Bedeutung, insbesondere im Kontext adaptiver und personalisierter Learning Management Systeme (LMS). Viele derzeit eingesetzte KI-Lösungen – etwa ChatGPT und vergleichbare Large Language Models – operieren auf der Basis offenen Weltwissens, sind jedoch nicht an spezifische Lehrinhalte, Lernziele oder Kompetenzmodelle angebunden. Dies führt häufig zu kognitiver Überlastung und einem Rückgang der Lernmotivation, da das generierte Feedback weder lehrstoff- noch lernzielvalide ist.</em></p> <p><em>Der vorliegende Beitrag präsentiert eine Post-Studie, die auf einer bereits publizierten Pre-Test- und Primäruntersuchung mit 400 Studierenden an der Universität Leipzig und der TU Dresden aufbaut. Ziel der aktuellen Untersuchung ist die vertiefte Evaluation eines KI-basierten, formativen Feedbacksystems, das systematisch an curriculare Vorgaben, konkrete Lernziele und Aufgabenstellungen angebunden ist. Im Gegensatz zu generischen Sprachmodellen basiert das eingesetzte System auf einem instruktionsfundierten, selbsttrainierten Large Language Model, das auf validierten Lehrmaterialien, Aufgabenformaten sowie den zugehörigen Lehr- und Lernzielen operiert und daraus adaptive Rückmeldungen generiert. Ziel ist es, kognitive Belastung zu reduzieren, Lernprozesse zu individualisieren und die Zielerreichung im Hochschulkontext zu optimieren.</em></p> <p><em>Im Rahmen des Post-Tests im Wintersemester 2024/25 nahmen 100 Studierende der TU Dresden teil, die in Lehrveranstaltungen wie „Bildungstechnologie“ und „Medienbildung“ eingeschrieben waren. Über den Verlauf des Semesters wurden rund 400 studentische Abgaben mithilfe des KI-Systems individuell kommentiert. Die Teilnehmenden konnten ihre Einreichungen freiwillig mehrfach überarbeiten und erneut einreichen. Das Feedback passte sich dynamisch an den individuellen Lernfortschritt an und enthielt sowohl Hinweise auf nicht erreichte Lernziele als auch konkrete Verbesserungsvorschläge. Sämtliche Interaktionen wurden systematisch im LMS dokumentiert.</em></p> <p><em>Zur Überprüfung der Wirksamkeit des KI-Feedbacksystems in Bezug auf den Lernoutput wurde ein einseitiger, abhängiger t-Test durchgeführt, um folgende Hypothese zu prüfen: Erhöht sich die Anzahl der erreichten Lernziele signifikant nach der Feedback-Intervention? Die Ergebnisse zeigen, dass ein curricular integriertes KI-Feedbacksystem das adaptive Lernen signifikant fördert – insbesondere im Hinblick auf den Kompetenzerwerb, die Erreichung definierter Lernziele sowie die Leistungsmotivation der Lernenden im Sinne der Erwartung-mal-Wert-Theorie (Heckhausen, 2010). Die Befunde verdeutlichen die Relevanz didaktisch fundierter KI-Systeme, die gezielt auf lehrzielbezogenes Feedback und nachhaltige Lernprozesse ausgerichtet sind.</em></p> ID: 1134
/ DigEd - KI: 2
Projektbeitrag (Work In Progress) Themen: Track - Digital Education Stichworte: Hochschullehre, Lernstrategien, KI-Feedback, Aufgabengenerieren Wenn Studierende Aufgaben erstellen und KI dazu formatives Feedback erzeugt: Ein Modell für die universitäre Lehrpraxis? TU Dresden, Deutschland <p>Aktuelle Studien zeigen, dass das Beantworten, selbständige Generieren, aber auch das Beurteilen der Qualität von Aufgaben zu den effizientesten Strategien zur Förderung langfristigen Wissenserwerbs zählt (u.a. Ebersbach et al. 2020). Besonders wirksam sind dabei Aufgaben, die tiefes Verstehen erfordern (Fiorella, 2023). Unter Berücksichtigung dieser Erkenntnisse erstellen Teilnehmende in einer universitären Lehrveranstaltung als Studienleistung für jede Vorlesung eine Verstehensaufgabe, beantworten eine Verstehensaufgabe anderer Studierender und verfassen Peer-Feedback zur beantworteten Aufgabe. Anhand des Peer-Feedbacks haben die Studierenden im Anschluss die Möglichkeit, ihre generierten Aufgaben zu überarbeiten. Dadurch wird ihnen eine über das Semester verteilte, lernunterstützende formative Analyse, Einschätzung und Weiterentwicklung ihrer Kompetenzen ermöglicht (Narciss & Zumbach, 2022). Darüber hinaus reduziert diese verteilte Auseinandersetzung nicht nur die traditionell hohe Prüfungslast am Ende der Vorlesungszeit, sondern setzt gleichzeitig zwei besonders effiziente Lernstrategien – <em>practice testing </em>und <em>distributed practice</em> – gezielt um, die langfristig mit höherem Lernerfolg einhergehen (u.a. Dunlosky & Rawson, 2015).</p> <p>Ziel dieses Pilotprojektes ist es zu untersuchen, ob Feedback eines KI-Systems zu den generierten Aufgaben über die Reviews der Peers hinaus einen inhaltlichen Mehrwert für die Studierenden bieten kann. Peer-Feedback konzentriert sich oft eher auf positive Aspekte und geht nicht so deutlich auf negative Aspekte ein. Im Gegensatz dazu bieten Experten oft ausgewogeneres Feedback an, das gleichzeitig auch Informationen zur Verbesserung bestimmter Aspekte liefert (Weber et al., 2019). Jacobson und Weber (2023) konnten bereits zeigen, dass KI-generiertes Feedback vergleichbar mit Expertenfeedback sein kann, wenn eine hohe Qualität der verwendeten Prompts sichergestellt ist. Im Rahmen eines Pilotprojekts werden daher solche qualitativ hochwertigen Prompts entwickelt. Für zwei ausgewählte Vorlesungen werden diese Prompts über ein KI-gestütztes System eingesetzt, um unter Nutzung der Vorlesungsfolien automatisiert konstruktives Feedback zu den von den Studierenden generierten Aufgaben bereitzustellen. Im Anschluss wird das KI-generierte Feedback inhaltlich mit dem Peer-Feedback der Studierenden sowie einem Expertenreview zur Qualität der Aufgaben verglichen. Abschließend werden die Ergebnisse dieser Analyse mit Studierenden im Hinblick auf Vor- und Nachteile der verschiedenen Review-Methoden reflektiert. Wenn das Pilotprojekt einen Mehrwert des KI-generierten Feedbacks zeigt, könnten Studierende in weiteren Lehrveranstaltungen selbst KI-generiertes Feedback zu ihren Verstehensaufgaben einholen, um diese zusätzliche Informationsquelle für die Überarbeitung ihrer Aufgaben zu nutzen. Die Prompts könnten je nach Lehrziel direkt nachgenutzt oder fachspezifisch angepasst werden, wodurch eine fächerübergreifende Nutzung möglich wird.</p> ID: 1104
/ DigEd - KI: 3
Projektbeitrag (Work In Progress) Themen: Track - Digital Education Stichworte: Prompting, Arbeitsbezogenes Lernen, AI Literacy, Intervention, Workshop Evaluation einer Trainingsintervention zur Förderung des arbeitsbezogenen Lernens bei der Nutzung von KI-basierten Chat-Anwendungen Universität Bremen, Deutschland <p>Die Entwicklung von KI-basierten Chat-Anwendungen wie Microsoft Copilot revolutioniert die Art und Weise, wie wir lernen und arbeiten (Dai et al., 2023; Decius, 2024), indem sie individualisiertes, begleitetes Lernen sowohl in der Bildung als auch im Arbeitskontext ermöglichen (Krüger et al., 2024; Zhai et al., 2022). Studien zeigen jedoch, dass die Ergebnisse und die Effektivität solcher Anwendungen abhängig sind vom Nutzungsverhalten, insbesondere der Prompts (Sawalha et al., 2024).<br />Deshalb wurde ein Workshop zur Vermittlung von Prompting-Strategien entwickelt und evaluiert. Dabei stehen zwei Forschungsfragen im Fokus:</p> <p>1. Wie effektiv ist ein Workshop zur Vermittlung von Prompting-Strategien in Hinblick auf den Lernerfolg während die Nutzung von Copilot?</p> <p>2. Wie wirkt sich die Anwendung der Prompting-Strategien auf den Lerntransfer aus?</p> <p>Die Struktur des Workshops basiert auf dem 5E-Modell (National Science Board, 2008), welches insbesondere für die Vermittlung von MINT-Inhalten geeignet ist. Das Modell unterteilt den Workshop in fünf Phasen – Engagement, Exploration, Erklärung, Elaboration, Evaluation – mit unterschiedlichen inhaltlichen und methodischen Schwerpunkten und bietet den Lernenden so die Möglichkeit, anhand vieler interaktiver Bausteine die Lerninhalte selbst anzuwenden und zu verinnerlichen. Der Workshop ist zudem darauf ausgelegt, sowohl das Performance Mindset, also die Leistungsmotivation beim Bearbeiten einer Aufgabe, als auch das Development Mindset, also die Lern- und Weiterentwicklungsmotivation nach Perkins et al. (2013) anzusprechen und somit auch Nutzungsstrategien zur persönlichen Weiterentwicklung zu vermitteln.</p> <p>Die Evaluation erfolgt durch ein Wartekontrollgruppendesign mit wiederholten Messungen, wie in Abbildung 1 dargestellt, wobei der Lernerfolg quantitativ durch Wissenstests und Selbstauskünfte sowie qualitativ durch Interviews erhoben wird.</p> <p>Hierbei werden zwei Zielgruppen betrachtet: Zum einen wird der Workshop im Kontext einer beruflichen Ausbildung evaluiert, wodurch kaufmännische und technische Auszubildende die erste Zielgruppe ausmachen. Die zweite Zielgruppe besteht aus Angestellten verschiedener Unternehmen, die bereits über eine abgeschlossene Berufsqualifizierung sowie einschlägige Berufserfahrung verfügen.</p> <p>Abb. 1: Evaluationsdesign</p> <p>Erste Ergebnisse zeigen, dass der Workshop ein geeigneter Start in das Thema „Prompting“ ist, je nach Zielgruppe allerdings eine längerfristige Implementationsphase nützlich wäre. Die Evaluation wird zum Zeitpunkt der Konferenz bei mindestens zwei Partnerunternehmen abgeschlossen sein, sodass Ergebnisse über mehrere Zielgruppen hinweg präsentiert werden können.</p> ID: 1129
/ DigEd - KI: 4
Projektbeitrag (Work In Progress) Themen: Track - Digital Education Stichworte: KI, Lernmanagementsysteme, pädagogische Implikationen, technologische Machbarkeit, regulatorische Anforderungen Entwicklung eines Bewertungsschemas für KI-Funktionalitäten in Lernmanagementsystemen 1Universität Innsbruck, Österreich; 2Universität Graz, Österreich <p>Die Integration von Künstlicher Intelligenz (KI) in Lernmanagementsysteme (LMS) wie beispielsweise Moodle, OpenOlat, Ilias oder Canvas nimmt stetig zu. Diese Entwicklung wirft zentrale Fragen hinsichtlich der Art der eingesetzten KI-Technologien und ihrer jeweiligen Funktionen auf. Dabei ist zu klären, ob deren Implementierung primär durch pädagogische Erkenntnisse oder durch technologische und marktgetriebene Innovationen motiviert ist. Darüber hinaus stellt sich die Frage, inwieweit diese Systeme den europäischen Regularien, insbesondere den Vorgaben des AI Act und der DSGVO, entsprechen. Theoretische Ansätze zum didaktisch motivierten KI-Einsatz finden sich mittlerweile in zahlreichen Publikationen (Deroncele-Acosta et al., 2024), (Кazimova et al., 2025), eine umfangreiche kritische Bewertung von bisher tatsächlich implementierten KI-gestützten Funktionen in LMS fehlt jedoch bislang.</p> <p>Konzepte zur Steigerung der Bildungsqualität und der Lernergebnisse durch den KI-Einsatz in LMS sind umfangreich dokumentiert. Dabei werden insbesondere personalisiertes und adaptives Lernen (Ikhsan et al., 2025), (Roodsari & Köhler, 2025), intelligente Tutorensysteme (Mimoudi, 2024), datengestützte Entscheidungsfindungen (z.B. in Form von Learning Analytics) (N. S. Alotaibi, 2024) und (teil)automatisierte Bewertungen im Rahmen der Leistungsbeurteilungen (Hudiah et al., 2024) genannt. Positive Lerneffekte ergeben sich generell auch aus der automatisierten Erstellung von Untertiteln (H. M. Alotaibi et al., 2023) oder der KI-Unterstützung bei Textformulierungen (Meyer & Weßels, 2023).</p> <p>Trotz dieser Potenziale bleibt unklar, in welchem Maß die aktuelle Integration von KI in LMS tatsächlich den gewünschten pädagogischen Nutzen bietet. Neben didaktischen Überlegungen und der technischen Machbarkeit sind auch rechtliche und ethische Aspekte zu berücksichtigen, insbesondere in Hinblick auf den Schutz personenbezogener Daten von Lernenden und Lehrenden, auf das Urheberrecht und auf die Wahrung der akademischen Integrität. Darüber hinaus besteht die Gefahr, dass KI-gestützte Funktionen ohne fundierte didaktische Konzepte eingeführt werden und somit bestehende Lehr-/Lernprozesse nicht sinnvoll ergänzen, sondern möglicherweise sogar beeinträchtigen.</p> <p>Die Entscheidungshoheit über den Einsatz von KI innerhalb von LMS sollte nicht ausschließlich bei Drittanbietern liegen, sondern maßgeblich durch hochschulinterne Prozesse mitgestaltet werden. In diesem Kontext ist eine strukturierte Bewertungsmethode erforderlich, um fundiert zu entscheiden, welche KI-Anwendungen an welchen Stellen eines hochschuleigenen LMS sinnvoll integriert werden sollten. Im Beitrag wird daher eine – bestenfalls bereits in der Praxis getestete – Struktur vorgeschlagen, die es Hochschulen ermöglicht, den Einsatz von KI innerhalb ihrer digitalen Lernumgebungen reflektiert zu analysieren und bedarfsgerecht zu steuern.</p> | ||
