WiKKI26
Wildauer Konferenz für Künstliche
Intelligenz 2026
10. März 2026, TH Wildau
Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
|
Sitzungsübersicht |
| Datum: Dienstag, 10.03.2026 | |
| 8:30 - 9:00 | Registrierung Ort: Foyer |
| 9:00 - 10:00 | Willkommen und Keynote Ort: 17-0030 Prof. Dr. Jörg Reiff-Stephan (Willkommen und Eröffnung) Prof. Dr. Ulrike Tippe (Grußworte und natioinale KI-Strategie) René Hoffmann (Keynote) |
| 10:00 - 10:10 | Gruppenfoto Ort: Foyer |
| 10:10 - 10:45 | Postersession1: Daten für KI Ort: 17-0020 |
|
|
Intelligente Werkstückträger für Produktionssimulationen Technische Hochschule Wildau, Deutschland Im Kontext von Industrie 4.0 gewinnen KI-basierte Predictive-Maintenance-Ansätze an Bedeutung, da sie auf kontinuierlich erfassten Prozessdaten beruhen und eine frühzeitige Anomalieerkennung ermöglichen. Für die Entwicklung, das Training und die Validierung solcher Verfahren werden physische Versuchs- und Simulationsumgebungen benötigt, die sowohl reproduzierbare Betriebszustände als auch gezielt herbeigeführte Fehlerszenarien abbilden. Reine Simulationen erfassen diese Aspekte jedoch nur eingeschränkt. In diesem Beitrag wird ein miniaturisierter, sensorbasierter Werkstückträger vorgestellt, der in einer modellhaften Produktionssimulation auf einer Carrera-Slotcar-Bahn eingesetzt wird. Der Träger basiert auf einem 1:24-Slotcar und integriert eine eigens entwickelte Elektronik mit Strom-, Spannungs-, Temperatur- und Bewegungssensorik. Ziel ist die Erzeugung qualitativ hochwertiger Zeitreihendaten als Grundlage für KI-gestützte Anomalieerkennung und zustandsbasierte Wartung. Das System unterstützt zwei Betriebsarten: einen Trainingsmodus zur gezielten Datenerfassung und Simulation von Fehlerszenarien sowie einen Betriebsmodus zur Überwachung des laufenden Betriebs. Erste Untersuchungen zeigen, dass reproduzierbare Datensätze erzeugt werden können, die sich für das Training und die Validierung von Predictive-Maintenance-Algorithmen eignen. Damit bietet das System eine flexible Plattform für Forschung, Lehre und die Entwicklung datenbasierter Instandhaltungsstrategien. SaiNSOR – Vertrauenswürdige KI-Sensorik: Modulare Interface-Technologien für domänenübergreifende Messsysteme der Zukunft DLR, Deutschland Projekt SaiNSOR – Vertrauenswürdige KI-Sensorik für domänenübergreifende Messsysteme Das Projekt SaiNSOR – eine Initiative des Deutschen Zentrums für Luft- und Raumfahrt (DLR) unter der Leitung des DLR-Instituts für Weltraumforschung – verfolgt das Ziel, vertrauenswürdige und KI-gestützte Datenverarbeitung für Messsysteme zu entwickeln. Kern der Arbeit ist die Entwicklung einer modularen, domänenübergreifenden Schnittstellentechnologie, die multimodale Sensoriken integriert, Datenverarbeitung und Sensorik eng verknüpft – insbesondere für sicherheitskritische Anwendungen – und durch qualitative Bewertungssysteme das Vertrauen in die Datenqualität nachhaltig stärkt. Der dringende Bedarf ergibt sich aus den Herausforderungen moderner KI-Systeme: Während deren Blackbox-Charakter oft undurchsichtige Entscheidungsprozesse zur Folge hat, verlangen die strengen Vorgaben der EU-KI-Verordnung explizit die Bereitstellung von hochwertigen, nachvollziehbaren und transparenten Daten. Maßgeschneiderte Sensordaten sind dabei ein entscheidender Baustein, um KI-Systeme verlässlich und vertrauenswürdig zu gestalten. Bisherige Insellösungen sind mit hohem Entwicklungsaufwand verbunden. SaiNSOR löst diese Probleme durch eine flexible Interface-Technologie, die es ermöglicht, multimodale Sensordaten zu generieren, zu verarbeiten und mit Qualitätsmetriken ausstattet. Damit wird nicht nur die Datenqualität sichergestellt, sondern auch die Interoperabilität zwischen verschiedenen Anwendungsbereichen deutlich verbessert. Ein LLM-basierter Agent zur automatisierten Analyse von GitLab Merge Requests. 1Deutsches Elektronen-Synchrotron DESY; 2Technische Hochschule Wildau Die manuelle Überprüfung von Code-Änderungen in Merge Requests ist ein zeitaufwändiger und oft inkonsistenter Prozess. Insbesondere in kollaborativen Softwareprojekten stellt die Einhaltung projektspezifischer Standards eine zentrale Herausforderung dar. Gleichzeitig eröffnen Large Language Models (LLMs) neue Möglichkeiten, Entwicklerinnen und Entwickler bei regelbasierten Prüfaufgaben zu unterstützen. In diesem Beitrag stellen wir einen LLM-basierten Agenten vor, der die Einhaltung semantischer und struktureller Vorgaben überprüft, wie sie in einem projektspezifischen Standarddokument festgelegt sind. Der Agent ist in den bestehenden GitLab-Workflow integriert und reagiert ereignisbasiert auf Merge-Request-Aktionen über Webhooks. Nach dem Öffnen eines Merge Requests analysiert der Agent die geänderten Dateien und prüft deren Konformität mit der vorgegebenen Semantischen Richtlinien. Die Architektur des Systems ist modular aufgebaut und erlaubt eine transparente, nachvollziehbare Bewertung einzelner Regelverstöße. Anhand eines exemplarischen Anwendungsfalls zeigen wir, wie der Agent Entwicklerinnen und Entwickler bei der standardkonformen Code-Überprüfung unterstützt und Entscheidungsprozesse im Review kontextsensitiv vorbereitet. Der Beitrag richtet sich an Forschende sowie Praktikerinnen und Praktiker, die sich für den Einsatz von KI-Agenten zur Unterstützung von Governance-, Compliance- und Qualitätsprozessen im Software Engineering interessieren. Einsatz synthetisch generierter Trainingsdaten zur Erweiterung der Graffiti-Erkennung an Personenverkehrszügen Technische Hochschule Wildau, Deutschland Die zuverlässige Unterscheidung von Graffiti und regulären Oberflächen- mustern an Personenverkehrszügen stellt in der Praxis weiterhin eine Herausforderung dar. Frühere Arbeiten, unter anderem im Projekt ESPEK (Erkennung von Schad- mustern an Personenverkehrszügen und Evaluierung der Konfidenz zur Auswahl robuster Features für ”Predictive Maintenance“), zeigen, dass Deep-Learning-Modelle Graffiti grundsätzlich erkennen können, jedoch insbesondere bei seltenen Musterformen, variierenden Beleuchtungsbedingungen und werksseitigen Beklebungen an ihre Grenzen stoßen. Reale Trainingsdaten bilden diese Variabilität nur unzureichend ab. In diesem Beitrag wird untersucht, inwieweit synthetisch erzeugte Bilder zur gezielten Erweiterung eines bestehenden Trainingsdatensatzes beitragen und die Robustheit eines KI-basierten Graffiti-Detektors verbessern können. Hierzu werden vollständig synthetische sowie hybride Bilddaten generiert und gemeinsam mit realen Trainings- daten evaluiert. Die Experimente analysieren sowohl die Reduktion von Fehlklassifikationen als auch den Einfluss des Domain Gaps zwischen realen und synthetischen Daten. |
| 10:10 - 10:45 | Postersession2: KI in LifeScience Ort: 17-0021 |
|
|
Fallstudie zur KI-gestützten Analyse transkribierter Mediationssitzungen 1HWR Berlin, Deutschland; 2TU Berlin, Deutschland Der Beitrag geht auf die prototypische Implementierung von KI-Experimenten zur Analyse von transkribierten und anonymisierten Mediationssitzungen ein. Für die Analyse wurden unterschiedliche KI-Modelle erprobt, die mit Hilfe verschiedener Zugriffsmechanismen in die eigene Entwicklung integriert wurden. Maßgeblich für den Erfolg war das stringente Zusammenwirken der verschiedenen Kompetenzträger im Rahmen einer agil orientierten Projektorganisation. KI-basierte Echtzeit-Erkennung von Leishmania-Parasiten in mikroskopischen Bildern 1Technische Hochschule Wildau; 2Robert Koch Institut Wildau; 3Al Quds Universität Jerusalem (Palästina); 4Universität Tripoli (Lybien) Leishmaniose ist eine durch den Leishmania-Parasiten ausgelöste Erkrankung, deren Diagnose für unerfahrenes medizinisches Personal schwierig ist. In dieser Arbeit geht es um die Entwicklung eines KI-gestützten Systems, das den Parasitennachweis auf Mikroskopbildern automatisiert. Grundlage ist ein Deep-Learning-Ansatz mit Aufnahmen von Gewebeproben, erstellt mit einem Labor- und einem günstigen mobilen Mikroskop. Mithilfe der Bilder wurde ein Objektdetektions-Modell trainiert, das speziell darauf ausgerichtet wurde, Parasiten in unterschiedlichen Bildqualitäten zu identifizieren. Eine dafür entwickelte Benutzeroberfläche ermöglicht die direkte Anwendung des Modells auf Mikroskopbilder in Echtzeit. Außerdem ist die Analyse gespeicherter Bilder und Videos möglich. Dieser Ansatz zeigte nach dem Finetuning mit einem kombinierten Datensatz eine deutlich gesteigerte Leistung auf zuvor unbekannte Testdaten. Das System kann Parasiten zuverlässig erkennen und gleichzeitig robuste Ergebnisse in variierenden Umgebungen liefern. Durch den Einsatz eines solches Deep-Learning Modells kann medizinisches Personal erheblich entlastet werden. Da die Bewertung mikroskopischer Aufnahmen zugänglicher gemacht wird, indem der Anwender unterstützt wird und auch ohne spezialisierte Erfahrung die Parasiten finden kann. Der Einsatz des günstigen Mikroskop-Setups bietet zudem eine praktikable Lösung für Regionen mit begrenzten Ressourcen. Methoden des maschinellen Lernens zur Modellierung der Leishmaniose bis in das Jahr 2060 1Technische Hochschule Wildau, Deutschland; 2Al Quds Universität Jerusalem (Abu Dis), Palästina Durch den Klimawandel gewinnen Tropenkrankheiten weltweit an Bedeutung. Die Vorhersage ihrer Ausbreitung mittels Machine Learning wird daher immer wichtiger. Die kutane Leishmaniose, eine durch Leishmania-Protozoen verursachte Infektionskrankheit, führt weltweit zu 600.000 bis 1 Million Fällen jährlich. Sie wird durch Sandmücken übertragen und verursacht chronische, narbenbildende Hautläsionen. Grundlage für eine Simulation bzw. Projektion ist die Verknüpfung verschiedenster Datentypen, womit das Projekt eine Methodik für eine Foresight-Studie etabliert und evaluiert. Brasilien dient aufgrund seiner hohen Krankheitslast und zugänglicher Datenlage als Modellregion, um bestehende klimabasierte Modelle für Nordafrika zu erweitern. Hierfür werden Krankheitsfälle (DATASUS) mit Geodaten (GADM) und Klimavariablen (WorldClim) verknüpft. Um das Problem unausgeglichener Falldaten zu lösen, wird die Aufgabe als Klassifikation formuliert. Bekannte Krankheitsorte („Präsenz“) werden mit einer gleichen Anzahl zufälliger Hintergrundpunkte („Pseudo-Absenzen“) verglichen, um ein balanciertes Trainingsset zu schaffen. Ein Random-Forest-Modell wird trainiert, um die Lebensraum-Eignung vorherzusagen. Das finale Ziel ist die Anwendung dieser validierten Methodik zur Erstellung einer Risikoprognose für Nordafrika bis 2060. Quantum Machine Learning Appliances for tackling Neurological Disorders Technische Hochschule Wildau, Deutschland Neurological disorders are among the leading causes of disability and death worldwide. The WHO’s Global status report on neurology shows that neurological conditions affect more than 40% of the global population. One of the actions needed to be done, is to strengthen data systems and monitoring for evidence-informed decision-making and accountability. The intersection of quantum computing and healthcare is leading to breakthroughs in medical devices that promise to revolutionize diagnostics, treatment, and patient care. By leveraging quantum principles, medical devices are becoming more efficient, precise and capable of handling complex tasks that were once impossible. Traditional Machine Learning models struggle with high-dimensional and complex medical datasets, which led interest towards quantum machine learning (QML). By leveraging quantum computing principles, QML may offer advantages in handling such data and outperform classical models in specific tasks. Here, we compare Machine Learning classifiers with Quantum Machine Learning classifiers to investigate the applicability; focusing on Neural Networks for classification of neural conditions. The results show, that QML models require further refinement and problem-specific adaptations to be competitive. While some literature indicates that QML can outperform classical methods, this study highlights the need for tailored quantum algorithms and further research to fully exploit quantum computing's potential for medice. Künstliche Intelligenz“ als Kernelement in gemeinsamen Ausbildungsprojekten zwischen der TH Wildau und der NURE in Charkiw (Ukraine) 1Technische Hochschule Wildau, Deutschland; 2Nationale Universität für Radioelektronik, Charkiw (Ukraine) Wir beschreiben die Entwicklung und Ausweitung der Kooperation zwischen der Technischen Hochschule Wildau (THWi) und der Nationalen Universität für Radioelektronik (NURE) in Charkiw mit Schwerpunkt auf IT und Künstlicher Intelligenz. Erste Kontakte bestanden seit den 2010er Jahren, wurden jedoch ab 2020 durch DAAD-geförderte Sommerschulen intensiviert. Diese ermöglichten Nachwuchswissenschaftler*innen Einblicke in KI-Anwendungen in Biologie und Medizin und führten zu gemeinsamen Publikationen und Patentanmeldungen. Der russische Angriff auf die Ukraine 2022 verstärkte die Zusammenarbeit weiter. Mit der „Wildau-Welcome-IT-School“ wurden geflüchtete Studierende aufgenommen und in einem IT-Programm, inklusive KI-Modul, ausgebildet. Parallel entstand das DAAD-Nothilfeprojekt „Wildau-Kharkiv-IT-Bridge“, das gezielt Lehrende und Studierende in der Ukraine unterstützte, um Brain-Drain zu vermeiden. Bis 2025 wurden so hunderte IT-Module für rund zehntausend Studierende angeboten, viele davon mit KI-, ML- und DL-Bezug. Zur langfristigen Sicherung der Kooperation wurde 2025 das deutsch-ukrainische Gemeinschaftsprojekt CoSMoS-NT gestartet, das ein gemeinsames Bachelorprogramm in Computer Science mit KI-Schwerpunkten vorsieht. Ergänzt wird es durch Qualifizierungsangebote für Lehrende, innovative Lehrmethoden und nachhaltige Vernetzungsstrukturen. |
| 10:45 - 10:55 | Kurze Pause Ort: Foyer |
| 10:55 - 12:00 | Ses1: Mensch-KI Kollaboration Ort: 17-0020 |
|
|
Mensch-KI-Kollaboration und Agentic Business Orchestration: Paradigmenwechsel in der Wertschöpfung durch Joint Cognitive Systems MDZ Spreeland, Deutschland Die Evolution der Künstlichen Intelligenz vollzieht derzeit einen fundamentalen Wandel von reaktiven generativen Modellen hin zu proaktiven, agentenbasierten Systemen („Agentic AI“). Dieser Beitrag untersucht die Implikationen dieses Paradigmenwechsels für die Mensch-KI-Kollaboration und die innovative Geschäftsentwicklung. Im Zentrum steht das Konzept der „Joint Cognitive Systems“ und die Notwendigkeit „Geteilter Mentaler Modelle“ (Shared Mental Models) für eine effektive Delegation. Es wird argumentiert, dass die bloße Chat-Interaktion durch artefakt-basierte Kommunikation und „Mission Control“-Metaphern ersetzt werden muss, um Vertrauen und Kontrollierbarkeit („Calibrated Trust“) in autonomen Workflows zu gewährleisten. Google Antigravity demonstriert hierbei, wie durch verifizierbare Artefakte (z.B. Implementierungspläne, Screenshots, Code-Diffs) die „Black Box“ der KI-Entscheidung transparent gemacht wird. Der Beitrag leitet hieraus ein Rahmenwerk für „Innovative Geschäftsentwicklung“ ab, in dem „Agentic Orchestration“ traditionelle Prozessmodelle ablöst und die Rolle des Menschen vom Operateur zum Architekten und Supervisor transformiert. Abschließend werden soziotechnische Designprinzipien für die Gestaltung resilienter Mensch-Agent-Teams in der Industrie 5.0 vorgestellt, die Sicherheit und Autonomie in Einklang bringen. KI-gestützte Leitstandsassistenz für komplexe Infrastrukturen: Multi-Agenten-Architektur und verifizierbare Workflows Deutsches Elektronensynchrotron (DESY) Ein KI-basierter Ansatz zur Unterstützung von Leitständen in großskaligen Infrastrukturen wird vorgestellt. Verteilte Datenquellen, unübersichtliche Dokumentation und komplexe Systemabhängigkeiten erschweren dort eine schnelle und verlässliche Entscheidungsfindung. Das entwickelte Assistenzsystem bündelt Wissen aus Betriebshandbüchern, Erfahrungswissen und Echtzeitdaten und stellt es über eine natürlichsprachliche Schnittstelle bereit. Technisch basiert das System auf einer lokal betriebenen Multi-Agenten-Architektur, die Daten aus Monitoring- und Steuerungssoftware zusammenführt. Ein verifizierbarer Ablauf mit festen Rückkopplungsschleifen sorgt dafür, dass Ein- und Ausgaben überprüfbar und stabil bleiben. Dadurch lassen sich probabilistische Modelle in nachvollziehbare und reproduzierbare Handlungsschritte überführen – ein zentraler Aspekt für den Einsatz in sicherheitskritischen Bereichen. Die Entwicklung und Erprobung erfolgen in wissenschaftlichen Anlagen, die am DESY Zeuthen aufgebaut werden. Der Beitrag beschreibt erste Ergebnisse, Herausforderungen bei Datenqualität und Integration sowie mögliche Beiträge des Ansatzes zu resilienten, transparenten und nachhaltigen KI-Unterstützungssystemen für Leitstände. DeepEcoWatertreat: Entwicklung digitaler Lösungen für die günstige Bestimmung des Betriebszustandes von Kläranlagen 1TH Wildau, Deutschland, Hochschulring 1, 15745 Wildau; 2Oculyze Automation GmbH, Regattastr. 183, 12527 Berlin Für Kläranlagenbetreiber wird es zusehends schwerer, ihre hohe gesetzlich geforderten Reinigungsleistungen vor dem Hintergrund zunehmender klimabedingter Schwankungen einzuhalten. Insbesondere Blähschlammbildung infolge filamentöser Bakterien stellt ein Risiko für Anlagenbetreiber dar, welchem bisher nur durch hohen Energie- oder Chemikalieneinsatz begegnet wurde. DeepEcoWaterclean verknüpft Mikroskopiebilddaten mit 16S-rDNA-Sequenzierdaten, um KI-gestützte Bilderkennungsalgorithmen zur automatisierten Erkennung mikrobiologischer Zustände in Belebtschlamm zu trainieren. Der entwickelte Ansatz kombiniert Convolutional Neural Networks mit klassischer pixelbasierter Bilderkennung und erlaubt die Extraktion zentraler Strukturparameter (u. a. Filamentanzahl, Flockengröße, Filamentkonzentration) aus Phasenkontrastaufnahmen bei vergleichsweise kleinen Datensätzen, ohne künstliches Daten-Bootstrapping. In Verbindung mit Mikrobiom- und Betriebsdaten (Beta-Diversität, physikochemische Kenngrößen) werden Betriebszustände geclustert und problematische Veränderungen frühzeitig erkannt, sodass langanhaltende Drifts in der mikrobiellen Zusammensetzung von kurzfristigen, detergenzieninduzierten Blähschlammereignissen unterschieden werden können. Ein Dashboard stellt die Analyseergebnisse in Echtzeit bereit und unterstützt Betreiber bei der gezielten, ressourceneffizienten Steuerung von Belüftung und Fällmittelzugabe, wodurch Kosten, Energieverbrauch und Umweltrisiken reduziert werden. |
| 10:55 - 12:00 | Ses2: Methoden in der Anwendung Ort: 17-0021 |
|
|
CT-basierte Segmentierung als Grundlage für individuelle Strukturvergleiche zur Identifikation von Personen Technische Hochschule Wildau, Deutschland Die Keilbeinhöhle weist eine stark variable, hochgradig individuellen Morphologie auf und wirkt wie ein einzigartiger Fingerabdruck im Inneren des Schädels einer Person. In einem Strukturvergleich kann sie somit zur Personenidentifikation genutzt werden. Unser Ziel ist es, eine forensische Pipeline zur Identifikation von unbekannten Toten aus Massengräbern in der Ukraine zu entwickeln. Basis einer Identifizierung wären dann CT-Scans von Schädeln unbekannter Toter und Vergleichsbilder (ehemals) lebender Patienten aus medizinischen Bildarchiven. Die vorgeschlagene Pipeline integriert die automatisierte 3D-Segmentierung mittels nnU-Net mit der geometrischen Registrierung basierend auf Point Clouds, um eine robuste Identifikation zu ermöglichen. Die vorläufige Version der Pipeline besteht aus folgenden Teilen: Preprocessing, Erstellung eines 3D-Modells mit Hilfe der professionellen Software Mimics, nnU-Net-3D-Segmentierung, Maskennachbearbeitung, Generierung von Oberflächenmodellen und Point Clouds, globale Ausrichtung, Registrierung von Point Clouds, Distanzmetriken und Visualisierung sowie Entscheidung zur individuellen Identifikation. Datengetriebene Texturanalyse textiler Oberflächen zur adaptiven Steuerung von Handhabungsprozessen Technische Hochschule Wildau, Deutschland Der Beitrag behandelt die Entwicklung und Validierung eines datengetriebenen Analysesystems zur automatisierten Erkennung biegeschlaffer Materialien wie Textilien, Leder oder Folien. Ziel ist die adaptive Steuerung eines modularen Greifersystems, das seine Prozessparameter dynamisch an erkannte Materialeigenschaften anpasst. Grundlage bildet ein bildgebendes Verfahren, bei dem eine Industriekamera hochauflösende Texturinformationen erfasst. Diese Bilddaten werden durch Data Augmentation erweitert und anschließend mittels klassischer Merkmalsextraktionstechniken (LBP, GLCM, HOG) in charakteristische Texturbeschreibungen überführt. Zur Klassifikation der Materialien werden maschinelle Lernverfahren wie Support Vector Machines und Random Forests eingesetzt. Im Fokus des Beitrags steht der systematische Vergleich verschiedener Merkmals- und Klassifikationsmethoden, inklusive strukturierter Datenaufbereitung und Trainingsprotokolle. Die Validierung anhand eines Datensatzes mit über 50 Textilien zeigt, dass bestimmte Merkmals-Klassifikations-Kombinationen Genauigkeiten und F1-Scores von über 95 % erreichen. Damit wird das hohe Potenzial datengetriebener Texturanalyse für eine robuste, echtzeitfähige Materialerkennung in der industriellen Automatisierung belegt. Konvergente Datenarchitekturen für souveräne KI-Systeme: Eine Evaluation von ThemisDB im Vergleich zu Hyperscaler-Modellen non profit organisation, Deutschland ThemisDB ist eine Multi-Modell-Datenbank (MMDBMS) mit strikter ACID-Garantie zum rechtsicheren Betrieb eines Transformer-KI Systems (LLM) in der deutschen Verwaltung. Im Zentrum steht der Vergleich der Transaktionsintegrität (ACID vs. BASE) und der Retrieval-Latenz zwischen der lokalen Themis-Architektur und den verteilten RAG-Stacks der Hyperscaler (AWS, Azure, GCP). Mit Implementierung von BSI-konformen Sicherheitsmodulen (Apache Ranger, PKCS#11 HSM) stellt ThemisDB eine valide „Local-First“-Alternative für hochsensible Verwaltungsakte dar, die Datensouveränität mit Echtzeit-Performance verbindet. |
| 12:00 - 13:00 | Mittagspause Ort: 17-0030 |
| 13:00 - 14:20 | Ses3: Sicherheit und Resilienz Ort: 17-0020 |
|
|
KI-Gestützte Gefahrgutbeurteilung in der Batterie- und Chemikalienlogistik 1Notivo.ai, Deutschland; 2Technische Hochschule Wildau, Deutschland Dieser Beitrag stellt einen hybriden KI-Ansatz zur Gefahrgutbeurteilung in der Batterie- und Chemikalienlogistik vor. Im Zentrum steht die Frage, wie Fachkräfte aus fragmentierten, teilweise widersprüchlichen und sich ändernden Regelwerken schnell und rechtssicher zu Entscheidungen gelangen können. Dazu wird ein Retrieval-Augmented-Generation-System entwickelt, das generative Sprachmodelle mit mehrstufigem Preprocessing, semantischer Suche und Knowledge Graphs kombiniert. Heterogene Dokumente werden per OCR, Layoutanalyse und semantischer Segmentierung normalisiert und anschließend über Vektor- und Graphstrukturen erschlossen. Ein agentenbasiertes Multi-Step-Reasoning zerlegt komplexe Anfragen in Teilaufgaben, orchestriert Retrieval und Konsistenzprüfungen und liefert nachvollziehbare Entscheidungsprotokolle. Technische Risiken wie Halluzinationen, veraltete Regularien und Skalierungsprobleme werden durch Konsistenzmetriken, Versionskontrolle und speichereffiziente Embedding-Strategien adressiert. Der Ansatz zielt darauf, dokumentengetriebene Entscheidungsprozesse in sicherheitskritischen Domänen zu automatisieren und lässt sich auf andere regulierungsintensive Bereiche übertragen. DLT als Audit- und Vertrauensschicht für KI-Entscheidungen Markus Begerow Der Beitrag analysiert die Blockchain-Technologie als unabhängige Audit- und Vertrauensschicht für KI-gestützte Entscheidungsprozesse in regulierten Umfeldern. Ausgangspunkt ist die zunehmende regulatorische Anforderung an Transparenz, Nachvollziehbarkeit und Governance von KI-Systemen, insbesondere im Kontext des EU AI Act. Vorgestellt wird ein Architekturansatz, bei dem Blockchain nicht als Transaktions- oder Token-Infrastruktur, sondern als unveränderliches Protokoll zur kryptografischen Verankerung zentraler KI-Artefakte (z. B. Trainingsdaten, Modellversionen, Prompt-Historien und Entscheidungsergebnisse) eingesetzt wird. Durch eine klare Trennung von On-Chain- und Off-Chain-Komponenten lassen sich Skalierbarkeit, Datenschutz und Performance wahren. Anhand praxisnaher Anwendungsszenarien wird gezeigt, wie Blockchain-basierte Audit-Trails zur regulatorischen Absicherung von KI-Systemen beitragen können, ohne bestehende Governance-Strukturen zu ersetzen. Szenenbasierte visuelle Anomaliedetektion - Evaluation visueller Anomalie-Detektionsverfahren in realen Instandhaltungsszenarien und deren Bedeutung fuer Nachvollziehbarkeit und die Einbindung in menschgefuehrte Entscheidungsprozesse Technische Hochschule Wildau – Arbeitsgruppe AVIR (Artificial Vision and Intelligent Robotics) Moderne Verfahren der visuellen Anomalie- und Fehlerdetektion werden überwiegend anhand von Laboraufnahmen oder stark kontrollierten Bedingungen entwickelt und evaluiert. Untersuchungen, die solche Modelle in realen Instandhaltungsszenarien mit komplexen und dynamischen Einsatzbedingungen betrachten, sind jedoch selten. Die vorliegende Arbeit adressiert diese Lücke, indem aktuelle bildbasierte Lernverfahren in realweltlichen Szenen der industriellen Instandhaltung getestet und hinsichtlich ihrer Einsatzfähigkeit bewertet werden. Im Mittelpunkt steht der Übergang von einer rein framezentrierten hin zu einer umgebungs- und szenenzentrierten Anomalieerkennung, die variierende Hintergründe und Betriebsbedingungen berücksichtigt. Die bislang überwiegend manuellen Inspektionen sollen durch KI-gestützte Verfahren ergänzt werden, um schwer zugängliche Bereiche leichter prüfbar zu machen, Prüfungen häufiger und kosteneffizienter durchzuführen und eine konsistente Bewertungsqualität zu ermöglichen. Zugleich bleibt der Mensch ein wesentlicher Bestandteil des Prüfprozesses, da die hier betrachteten Verfahren vor allem als assistive Unterstützung ausgelegt sind und ihre Anwendung zunächst durch das Prüfpersonal erlernt werden muss. Die Nachvollziehbarkeit der Modelle ist dabei sowohl für eine potenzielle (Teil-)Automatisierung als auch für die juristische und sicherheitsbezogene Zertifizierbarkeit unerlässlich und bildet einen wesentlichen wissenschaftlichen Anspruch dieser Arbeit. |
| 13:00 - 14:20 | Ses4: Regulierung und Ethik Ort: 17-0021 |
|
|
Reifegradmodell für Responsible AI in der öffentlichen Verwaltung TH Wildau, Deutschland Künstliche Intelligenz (KI) wird immer mehr in der öffentlichen Verwaltung genutzt, während ein verantwortungsvoller Umgangs, bezeichnet als Responsible Artificial Intelligence (RAI), bislang häufig auf normativ-deklarative Prinzipien beschränkt bleibt. Eine systematische Literaturübersicht (2026) zeigt, dass die Umsetzung von RAI in Behörden von normativen Prinzipien, Governance-Mechanismen, organisationaler Readiness sowie Implementierung und Evaluation abhängt. In der Praxis fehlt bislang ein integrierter Rahmen, der Verwaltungen bei der operativen Ausgestaltung RAI unterstützt. Bestehende RAI-Modelle sind meist technik- oder branchenfokussiert und berücksichtigen öffentliche Legitimität und institutionelle Verantwortung nur unzureichend. Der Beitrag adressiert diese Forschungslücke durch die konzeptionelle Entwicklung eines Reifegradmodells für Responsible AI in der öffentlichen Verwaltung. Das entwickelte Modell unterscheidet fünf Entwicklungsstufen von (1.) formaler Compliance über (2.) ethische Sensibilisierung und (3.) prozeduraler Verantwortlichkeit bis hin zu (4.) partizipativer Governance und (5.) adaptivem organisationalem Lernen. Das Reifegradmodell dient nicht als Checkliste, sondern als Reflektions- und Diagnoseinstrument für Behörden. Es bietet eine praxisnahe Grundlage für Self-Assessments, Trainings und Governance-Weiterentwicklung in Behörden. Nachbesserung von KI-Verordnung und Datenschutz-Grundverordnung – Schritt nach vorn für Innovation made in Europe? TH Wildau, Deutschland Die KI-Verordnung stellt ein grundlegendes Hemmnis für die europäische Innovationsfähigkeit in diesem Bereich dar. Regelungen erreichen ein nicht mehr hinnehmbares Ausmaß an Unbestimmtheit, das KI-Anbieter und -Betreiber lähmender Verunsicherung aussetzt. Zudem werden unterschiedlichste KI-Verwendungen einem pauschalen Anforderungskatalog unterworfen, der dem jeweiligen Einzelfall nicht angemessen ist. Die Europäische Kommission hat die Kritik zum Teil wahrgenommen und einen legislativen Verbesserungsvorschlag vorgelegt. Auch die Datenschutz-Grundverordnung, die für KI-Anwendungen ebenfalls grundlegende Bedeutung besitzt, soll nachgebessert werden. Der Beitrag untersucht, ob die Vorschläge in der Lage sind, die gesteckten Ziele zu erreichen, und ob die Innovationskraft Europas tatsächlich erhöht wird. Ebenso wird weiterer Änderungsbedarf identifiziert. KI-gestützte Transparenz- und Governance-Werkzeuge für regionale Energiesysteme: Anwendungspotenziale für Brandenburg 1XU Exponential University of Applied Sciences, Deutschland; 2Universität Potsdam, Deutschland; 3German Deep Tech Quantum, Deutschland Aktuelle Herausforderungen im Energiesektor erfordern neue Formen der Steuerung und Entscheidungsunterstützung komplexer Energiesysteme. Regionale erneuerbare Energiesysteme sind dabei durch Dezentralisierung, Unsicherheiten und steigende Koordinationsanforderungen geprägt. Gleichzeitig wird Transparenz über Energiedaten häufig auf übergeordneten Ebenen aggregiert, während sie auf regionaler und kommunaler Ebene, wo zentrale Steuerungsentscheidungen getroffen werden, nur eingeschränkt verfügbar ist. Künstliche Intelligenz (KI) wird in diesem Kontext bislang überwiegend als Optimierungstechnologie betrachtet. Dieser Beitrag adressiert eine bislang unterrepräsentierte Perspektive: KI als Technologie für Transparenz- und Governance-Werkzeuge zur Unterstützung menschlicher Entscheidungsprozesse. Vorgestellt wird ein konzeptionelles Rahmenwerk, das KI nicht zur autonomen Steuerung, sondern unterstützend für Transparenz- und Governance-Werkzeuge zur Strukturierung, Erklärung und verständlichen Aufbereitung komplexer Energie- und Infrastrukturdaten nutzt. Brandenburg dient dabei als regionaler Kontext und Modellraum, in dem die Relevanz dieses Ansatzes für eine nachhaltige und datenbasierte Steuerung der Energiewende deutlich wird. |
| 14:20 - 14:50 | Kaffeepause Ort: Foyer |
| 14:50 - 16:20 | Ses5: Geschäftsmodelle Ort: 17-0030 |
|
|
PhaceSpace – Phantombilder mit KI TH Wildau, Deutschland Im Projekt PhaceSpace wurde ein Verfahren zur Erstellung von forensischen Phantombildern mittels generativer KI-Modelle entwickelt. Dazu wurde das Modell StyleGAN um einen geeig-neten Suchprozess im Parameterraum erweitert, eine Frontend-Backend Lösung als Pilotan-wendung implementiert und eine experimentelle Validierung durchgeführt. Erstellung von Geschäftsdokumenten mit LLMs - Architektur & Evaluation Technische Hochschule Wildau, Deutschland Large Language Models (LLMs) bieten Potenziale zur Automatisierung wissensintensiver Dokumentenerstellung. Das Paper beschreibt ein konzeptionelles Framework zur qualitätsgesicherten Erstellung von Dokumenten. Es wird für einen konkreten Use Case in der Unternehmensberatung umgesetzt und genutzt zur vergleichenden Evaluation mehrer aktueller LLMs. Die Umsetzung des konzeptionellen Frameworks bietet einen validierten Ansatz für weitere wissensintensive Prozesse. Die Evaluation gängiger LLMs gibt einen Einblick in die Leistungsfähigkeit aktueller Modelle und wirft ein Licht auf Erfolgsfaktoren bei der Einbindung von RAG-Architekturen in Geschäftsprozesse. AI-Governance by Design: Datenarchitekturen für vertrauenswürdige KI Markus Begerow Der Beitrag zeigt, dass regulatorisch konforme und vertrauenswürdige KI-Systeme nicht primär auf Ebene der Modelle entstehen, sondern auf Basis geeigneter Datenarchitekturen und konsequenter Data Governance. Aktuelle regulatorische Anforderungen, insbesondere durch den EU AI Act, verlangen Transparenz, Nachvollziehbarkeit und Auditierbarkeit von KI-Entscheidungen. Diese lassen sich nur erfüllen, wenn Datenmodelle, Metadaten, Provenienz und Versionierung systematisch berücksichtigt werden. Anhand moderner Datenarchitekturansätze wie Data Warehouses, Data Mesh und semantischer Layer wird erläutert, wie strukturierte Datenpipelines eine sogenannte „Audit-ready KI“ ermöglichen. Der Beitrag verbindet technische, organisatorische und regulatorische Perspektiven und verdeutlicht anhand praxisnaher Beispiele aus regulierten Umfeldern, wie KI-Governance „by Design“ als integraler Bestandteil von Datenplattformen umgesetzt werden kann. Algorithmic Entrepreneurship: Evidence from a Real-World Firm on AI-Enabled Algorithmic Automation and Extreme Transaction Volume–to–Employee Ratios XU Exponential University, Potsdam, Deutschland Traditional business theories implicitly assume that increases in economic output also require increases in resources and employee count. In contrast, AI-enabled entrepreneurs increasingly demonstrate extreme operational scalability, achieving high output with very small teams. Despite conceptual discussions of these trends, empirical real-world evidence based on operational data remains limited. This paper is contributes a real-world, data-driven example case that empirically illustrates the above documented trends by analyzing multi-year daily operational time-series data from an AI-driven startup firm. The analysis investigates how between 2021 and 2024, annual algorithmically executed transactions increased from approximately 360,000 to over 2.4 million, while gross transaction volume scaled from about 500 million to more than 20 billion USD. During the same period, average employee count remained below five full-time equivalents. As a result, transaction volume–to–employee ratios increased substantially by more than a factor of ten over the observation period. This translated into approximately 4 billion USD in transaction volume and nearly 480,000 transactions per FTE. Tables, graphs and visualization of primary and secondary data are used. Additional metrics such as network effects and fees are assessed and success factors are provided. |
| 16:20 - 16:30 | Verabschiedung und Ausblick Ort: 17-0030 Prof. Dr. Jörg Reiff-Stephan |
