21. Jahrestagung der
Gesellschaft für Hochschulforschung (GfHf)
18.-20. März 2026 | Universität Paderborn
Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen.
Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
Bitte beachten Sie, dass sich alle Zeitangaben auf die Zeitzone des Konferenzortes beziehen.
Die momentane Konferenzzeit ist: 09. März 2026 23:54:29 MEZ
|
Sitzungsübersicht |
| Sitzung | ||
Session 3.04 (Symposium): Faire KI gestalten: Technikentwicklung im Kontext interdisziplinärer Verbundforschung
| ||
| Präsentationen | ||
Faire KI gestalten: Technikentwicklung im Kontext interdisziplinärer Verbundforschung Faire Künstliche Intelligenz, die Bias und Diskriminierung adressiert, entwickelt sich derzeit als ein zentraler Forschungsgegenstand für Informatiker:innen. In Verbundforschungsprojekten treffen dabei unterschiedliche soziale Welten aufeinander – Informatikforschende, Forschende aus den Kultur- und Sozialwissenschaften, Projektpartner:innen und Regulierungsbehörden – die jeweils eigene Erwartungen, Ressourcen und Vorstellungen von Fairness mitbringen. Informatiklabore übersetzen Fairness oft in rechnerisch handhabbare Probleme – eine Ausrichtung, die stark von pragmatischen Zwängen wie projektbasierter Finanzierung, Publikationsdruck und Karriereaufbau geprägt ist. Gleichzeitig beeinflussen Projektpartner:innen und Regulierungsbehörden Forschungsrichtungen durch Anforderungen an Compliance, „Real-World“-Impact und strategische Positionierung, was Spannungen darüber erzeugt, was als bedeutungsvolle Fairness gilt. Sozialwissenschaftliche Ansätze werden zwar anerkannt, jedoch häufig in bestehende Forschungsroutinen eingefügt oder „zurechtgebogen“. Insgesamt handelt es sich hierbei um eine bekannte Problematik; seit Langem gibt es unter Bezeichnungen wie ‚Design Informing‘, Ko-laboration und Partizipation Versuche, kultur- und sozialwissenschaftliche Perspektiven in Technikentwicklung einzubringen. Das Symposium versammelt Beiträge aus verschiedenen Disziplinen, die kritisch untersuchen, wie Entwicklungsziele, insbesondere die Fairness von KI, konzipiert, operationalisiert und in der wissenschaftlichen Praxis ausgehandelt werden; wie organisatorische und institutionelle Strukturen und Anreizsysteme beeinflussen, welche Forschung in entsprechenden Projekten betrieben wird; und wie interdisziplinäre Zusammenarbeit kultur- und sozialwissenschaftliche Perspektiven handhabbarer machen könnte, ohne disziplinäre Hierarchien zu verstärken. Für das Symposium sind drei Beiträge plus Abschlussdiskussion vorgesehen. Beiträge des Symposiums ‘Faire KI’ in den Praktiken von Informatiker:innen Miriam Fahimi untersucht ethnografisch, wie ‘faire KI’ in den wissenschaflichen und organisatorischen Praktiken von Informatiker:innen als Antwort auf ‘algorithmic bias’ (algorithmische Verzerrung bzw. Diskriminierung) hergestellt wird. Von 2020 bis 2024 war Miriam im EU H2020 ‘NoBIAS – Artificial Intelligence without Bias’ (NoBIAS) Projekt als sozialwissenschaftliche Mitarbeiterin und Doktorandin beschäftigt. In ethnographischen Forschung zu den Praktiken um die Herstellung von fairer KI lenkt sie den Blick auf ihr eigenes Forschungsprojekt. Miriam zeigt in ihrer ethnografischen Forschung, wie die Herstellung von Fairness und fairer KI in der Informatik durch organisatorische Praktiken geprägt ist. Informatiker:innen müssen in ihrem Forschungsalltag verschiedene soziale Welten – etwa ihre eigene akademische Community, interdisziplinäre Projektpartner:innen und regulatorische Anforderungen – miteinander in Einklang bringen (alignment work), um Fairnessforschung überhaupt „machbar“ zu machen. Dieses Abstimmen erfolgt auf mehreren Ebenen der Arbeitsorganisation: Auf der Ebene der sozialen Welten werden unterschiedliche epistemische Kulturen und Erwartungen verhandelt; auf der Ebene des Forschungsprojekts werden institutionelle Vorgaben, Förderlogiken und Fristen so koordiniert, dass sie die Umsetzung von Fairnessforschung ermöglichen; und auf der Ebene der konkreten Experimente zeigt sich, wie Methoden und Konzepte – oft aus der sozialwissenschaftlichen Forschung – kreativ angepasst, operationalisiert oder transformiert werden, um in die infrastrukturellen und zeitlichen Rahmenbedingungen informatischer Forschung zu passen. Diese Prozesse verdeutlichen, dass Fairness nicht (nur) als vorgegebenes theoretisches Ideal verstanden werden kann, sondern als ein situativ hervorgebrachtes Ergebnis fortwährender Abstimmungsarbeit zwischen sozialen, epistemischen und organisatorischen Anforderungen. In ihrem Beitrag plädiert Miriam daher für eine frühere und tiefere Einbindung sozialwissenschaftlicher Expertise in die Informatik, nicht allein in der Rolle einer externen Kritikerin bereits formulierter Lösungen, sondern als aktive Mitgestalterin jener Problematisierungen, aus denen Forschungsfragen und technische Ansätze überhaupt erst hervorgehen. Fairness in der Digitalisierung von Kulturerbe Lina Franken und Nicolas Dittgen betrachten den Einfluss regulatorischer Anforderungen auf Forschungsprioritäten und -methoden. Am Beispiel von Projektlogiken in Museumsangeboten untersuchen sie das Spannungsfeld von Partizipation und Digitalität. Sie arbeiten heraus, wie Projekte in Museen gestaltet werden, um partizipativ umsetzbar zu sein, Attraktivität für potentielle Teilnehmende zu haben und dabei dennoch den Förderlogiken folgen zu können, die eine genaue Planung von Projekten in frühen Stadien notwendig machen. Dies wird an ethnografischen Fallstudien von Nicolas Dittgen aufgezeigt. In Kontrastierung dazu werden Forschungsprioritäten und -methoden in Projekten aufgezeigt, die Archivmaterialien digitalisieren und erschließen, also für digitale Repositorien aufarbeiten. Wie hier Partizipation kaum eine Rolle spielen kann, da das Zusammenspiel aus rechtlicher Lage und Zeitdruck intensive Auseinandersetzungen mit dem Feld immer wieder verhindert, zeigt Lina Franken anhand eines aktuell von ihr umgesetzten Digitalisierungsprojektes auf. So wird im Vergleich deutlich, inwiefern Fairness auch außerhalb von KI im engeren Sinne zentralen Einfluss auf Projektgestaltungen im Digitalen hat. Erwartungen treffen in beiden Feldern auf notwendige Operationalisierungen und vorhandene, in der Regel begrenzte Infrastrukturen, welche die konkrete Projektumsetzung bedingen und einschränken. Zum transformativen Potential KI-ethischer Forschung Paula Helm setzt sich mit dem transformativen Potenzial der aktuellen KI-ethischen Forschung auseinander. Der Mainstream der KI-Ethik (Künstliche Intelligenz) ist stark von prinzipiengeleiteten Rahmenwerken geprägt und versäumt es dadurch, die situativen Realitäten der verschiedenen Gemeinschaften zu berücksichtigen, die von KI betroffen sind. Kritikerinnen argumentieren, dass die KI-Ethik häufig den Interessen von Unternehmen dient und somit eher als Instrument der Öffentlichkeitsarbeit fungiert, anstatt Schaden zu verhindern oder das Gemeinwohl zu fördern (Aradau and Blanke 2022; Bietti 2019; Clouser and Gert 1990; Mager et al. 2025; Phan et al. 2022; Powell et al. 2022; van Maanen 2022). | ||