WiKKI26
Wildauer Konferenz für Künstliche
Intelligenz 2026
10. März 2026, TH Wildau
Veranstaltungsprogramm
Eine Übersicht aller Sessions/Sitzungen dieser Veranstaltung.
Bitte wählen Sie einen Ort oder ein Datum aus, um nur die betreffenden Sitzungen anzuzeigen. Wählen Sie eine Sitzung aus, um zur Detailanzeige zu gelangen.
|
Sitzungsübersicht |
| Sitzung | ||
Postersession1: Daten für KI
| ||
| Präsentationen | ||
Intelligente Werkstückträger für Produktionssimulationen Technische Hochschule Wildau, Deutschland Im Kontext von Industrie 4.0 gewinnen KI-basierte Predictive-Maintenance-Ansätze an Bedeutung, da sie auf kontinuierlich erfassten Prozessdaten beruhen und eine frühzeitige Anomalieerkennung ermöglichen. Für die Entwicklung, das Training und die Validierung solcher Verfahren werden physische Versuchs- und Simulationsumgebungen benötigt, die sowohl reproduzierbare Betriebszustände als auch gezielt herbeigeführte Fehlerszenarien abbilden. Reine Simulationen erfassen diese Aspekte jedoch nur eingeschränkt. In diesem Beitrag wird ein miniaturisierter, sensorbasierter Werkstückträger vorgestellt, der in einer modellhaften Produktionssimulation auf einer Carrera-Slotcar-Bahn eingesetzt wird. Der Träger basiert auf einem 1:24-Slotcar und integriert eine eigens entwickelte Elektronik mit Strom-, Spannungs-, Temperatur- und Bewegungssensorik. Ziel ist die Erzeugung qualitativ hochwertiger Zeitreihendaten als Grundlage für KI-gestützte Anomalieerkennung und zustandsbasierte Wartung. Das System unterstützt zwei Betriebsarten: einen Trainingsmodus zur gezielten Datenerfassung und Simulation von Fehlerszenarien sowie einen Betriebsmodus zur Überwachung des laufenden Betriebs. Erste Untersuchungen zeigen, dass reproduzierbare Datensätze erzeugt werden können, die sich für das Training und die Validierung von Predictive-Maintenance-Algorithmen eignen. Damit bietet das System eine flexible Plattform für Forschung, Lehre und die Entwicklung datenbasierter Instandhaltungsstrategien. SaiNSOR – Vertrauenswürdige KI-Sensorik: Modulare Interface-Technologien für domänenübergreifende Messsysteme der Zukunft DLR, Deutschland Projekt SaiNSOR – Vertrauenswürdige KI-Sensorik für domänenübergreifende Messsysteme Das Projekt SaiNSOR – eine Initiative des Deutschen Zentrums für Luft- und Raumfahrt (DLR) unter der Leitung des DLR-Instituts für Weltraumforschung – verfolgt das Ziel, vertrauenswürdige und KI-gestützte Datenverarbeitung für Messsysteme zu entwickeln. Kern der Arbeit ist die Entwicklung einer modularen, domänenübergreifenden Schnittstellentechnologie, die multimodale Sensoriken integriert, Datenverarbeitung und Sensorik eng verknüpft – insbesondere für sicherheitskritische Anwendungen – und durch qualitative Bewertungssysteme das Vertrauen in die Datenqualität nachhaltig stärkt. Der dringende Bedarf ergibt sich aus den Herausforderungen moderner KI-Systeme: Während deren Blackbox-Charakter oft undurchsichtige Entscheidungsprozesse zur Folge hat, verlangen die strengen Vorgaben der EU-KI-Verordnung explizit die Bereitstellung von hochwertigen, nachvollziehbaren und transparenten Daten. Maßgeschneiderte Sensordaten sind dabei ein entscheidender Baustein, um KI-Systeme verlässlich und vertrauenswürdig zu gestalten. Bisherige Insellösungen sind mit hohem Entwicklungsaufwand verbunden. SaiNSOR löst diese Probleme durch eine flexible Interface-Technologie, die es ermöglicht, multimodale Sensordaten zu generieren, zu verarbeiten und mit Qualitätsmetriken ausstattet. Damit wird nicht nur die Datenqualität sichergestellt, sondern auch die Interoperabilität zwischen verschiedenen Anwendungsbereichen deutlich verbessert. Ein LLM-basierter Agent zur automatisierten Analyse von GitLab Merge Requests. 1Deutsches Elektronen-Synchrotron DESY; 2Technische Hochschule Wildau Die manuelle Überprüfung von Code-Änderungen in Merge Requests ist ein zeitaufwändiger und oft inkonsistenter Prozess. Insbesondere in kollaborativen Softwareprojekten stellt die Einhaltung projektspezifischer Standards eine zentrale Herausforderung dar. Gleichzeitig eröffnen Large Language Models (LLMs) neue Möglichkeiten, Entwicklerinnen und Entwickler bei regelbasierten Prüfaufgaben zu unterstützen. In diesem Beitrag stellen wir einen LLM-basierten Agenten vor, der die Einhaltung semantischer und struktureller Vorgaben überprüft, wie sie in einem projektspezifischen Standarddokument festgelegt sind. Der Agent ist in den bestehenden GitLab-Workflow integriert und reagiert ereignisbasiert auf Merge-Request-Aktionen über Webhooks. Nach dem Öffnen eines Merge Requests analysiert der Agent die geänderten Dateien und prüft deren Konformität mit der vorgegebenen Semantischen Richtlinien. Die Architektur des Systems ist modular aufgebaut und erlaubt eine transparente, nachvollziehbare Bewertung einzelner Regelverstöße. Anhand eines exemplarischen Anwendungsfalls zeigen wir, wie der Agent Entwicklerinnen und Entwickler bei der standardkonformen Code-Überprüfung unterstützt und Entscheidungsprozesse im Review kontextsensitiv vorbereitet. Der Beitrag richtet sich an Forschende sowie Praktikerinnen und Praktiker, die sich für den Einsatz von KI-Agenten zur Unterstützung von Governance-, Compliance- und Qualitätsprozessen im Software Engineering interessieren. Einsatz synthetisch generierter Trainingsdaten zur Erweiterung der Graffiti-Erkennung an Personenverkehrszügen Technische Hochschule Wildau, Deutschland Die zuverlässige Unterscheidung von Graffiti und regulären Oberflächen- mustern an Personenverkehrszügen stellt in der Praxis weiterhin eine Herausforderung dar. Frühere Arbeiten, unter anderem im Projekt ESPEK (Erkennung von Schad- mustern an Personenverkehrszügen und Evaluierung der Konfidenz zur Auswahl robuster Features für ”Predictive Maintenance“), zeigen, dass Deep-Learning-Modelle Graffiti grundsätzlich erkennen können, jedoch insbesondere bei seltenen Musterformen, variierenden Beleuchtungsbedingungen und werksseitigen Beklebungen an ihre Grenzen stoßen. Reale Trainingsdaten bilden diese Variabilität nur unzureichend ab. In diesem Beitrag wird untersucht, inwieweit synthetisch erzeugte Bilder zur gezielten Erweiterung eines bestehenden Trainingsdatensatzes beitragen und die Robustheit eines KI-basierten Graffiti-Detektors verbessern können. Hierzu werden vollständig synthetische sowie hybride Bilddaten generiert und gemeinsam mit realen Trainings- daten evaluiert. Die Experimente analysieren sowohl die Reduktion von Fehlklassifikationen als auch den Einfluss des Domain Gaps zwischen realen und synthetischen Daten. | ||
