FG - Künstliche Intelligenz

Die Forschungsgruppe Künstliche Intelligenz dient als zentrale, projektübergreifende Schnittstelle für die systematische Erforschung und praktische Anwendung moderner KI-Methoden. Die Gruppe widmet sich der Erfassung und Bewertung der rasanten Entwicklungen im Bereich des maschinellen Lernens und macht diese für ein breites Spektrum wissenschaftlicher Fragestellungen zugänglich. Ein Schwerpunkt liegt auf der Entwicklung eines gemeinsamen Verständnisses von modernsten Systemarchitekturen und technologischen Trends, um einen Wettbewerbsvorteil in Forschung und Entwicklung zu sichern.

Unsere Arbeit deckt die gesamte Wertschöpfungskette der KI-Entwicklung ab – von der Kuratierung hochwertiger Datensätze über das Training spezialisierter Modelle bis hin zu deren effizientem Einsatz auf leistungsstarker Hardware. Ein wichtiges Ziel ist die Analyse der komplexen Wechselwirkungen zwischen Algorithmen, Recheninfrastruktur und Modellleistung. Durch die Überbrückung der Kluft zwischen theoretischer Informatik und Ingenieurwesen wollen wir komplexe KI-Modelle in zuverlässige Werkzeuge für technische Umgebungen übersetzen.

Ein besonderer Schwerpunkt liegt auf der Integration von KI-Methoden in fortschrittliche Produktionstechnologien, insbesondere in die additive Fertigung und die hybride Fertigung. Dabei nutzt die Gruppe KI-Methoden zur Optimierung komplexer Prozessketten, zur Vorhersage von Fehlerentstehungen sowie zur Analyse der Mikrostrukturbildung. Durch die Implementierung von Physics-Informed Neural Networks (PINNs) und die Integration von KI in bestehende Simulationsframeworks (wie CFD und FEM) wollen wir komplexe physikalische und technische Probleme lösen, welche mit traditionellen Methoden allein nicht zu bewältigen sind. Dieser integrierte Ansatz leistet einen wichtigen Beitrag zur digitalen Transformation der Fertigungswissenschaft und zur Entwicklung intelligenter, datengesteuerter Produktionssysteme.

Gruppenmitglieder:

Angebote:

Themen für Masterarbeiten im Bereich der Entwicklung von KI Modellen mit dem Fokus auf der hybriden Fertigung werden zeitnah veröffentlicht. Bei weiterem bzw. allgemeinen Interesse können Sie sich hier melden.

 

Aktuelle Anwendungen

3D-Geometrie aus EOT-Daten mit SAM2 extrahieren
Ausgangslage:

Exposure Optical Tomography (EOT) erzeugt während des LPBF-Prozesses sequentielle Bilddaten. Eine sCMOS-Kamera erfasst dabei im nahen Infrarotbereich die über den gesamten Bauraum integrierte oder maximale Strahlung aus der Laser-Material-Interaktion.
Diese Bildstapel enthalten wertvolle Informationen über die Geometrie des gedruckten Bauteils – sind jedoch ohne robuste Segmentierung schwer auszuwerten.

Herausforderungen: Bildsegmentierung

Naives Thresholding stößt bei EOT-Daten schnell an Grenzen. Die größten Herausforderungen sind: 
•    stark variierende Intensitäten,
•    Rauschen sowie Spritzer,
•    partielle Überstrahlung sowie
•    komplexe Partikel- und Musterstrukturen.

SAM2-Architektur und Ergebnisse

SAM2 bietet hier einen entscheidenden Vorteil:
Durch Prompting lassen sich gezielt Patterns, Partikel oder Bauteil- Volumen oder Konturen segmentieren – abhängig vom Analysefokus.
•    Für jeden gedruckten Layer entsteht eine Maske,
•    Die Maske beschreibt das jeweilige Bauteil-Shape im Layer und
•    Diese Masken sind die Grundlage für alle weiteren Schritte.

Zentrales Datenkonzept: LPBF Cube

Die sequenziellen EOT-Aufnahmen werden zu einem dreidimensionalen Volumen (LPBF Cube) fusioniert. Dabei erhält jeder Voxel eine räumliche Information, radiometrische Werte und optional zusätzliche Prozess-Metadaten. Der Cube dient als gemeinsame Datenbasis für Geometrie-Rekonstruktion und Analyse.

Best Practice Framework
Nur PunktewolkeLPBF Cube mit Metadaten
  1. SAM2 Segmentierung der Masken (z.B. pytorch)
  2. Punktewolke gemäß der Maske extrahieren
  1. SAM2 Segmentierung der Masken (z.B. pytorch)
  2. Rand via Erosion bestimmen (z.B. Python)
    from scipy import ndimage as ndi  # für Morphologie
    selem = ndi.generate_binary_structure(2, 1)
    eroded = ndi.binary_erosion(blue_mask, selem, border_value=0)
    border_mask = blue_mask & ~eroded
  3. Triangulieren
    Ausdünnen: Sampling, z.B. Poisson-Disk
    Surface Reconstruction: z.B. Ball-Pivoting-Algorithmus
    Optionales Dreiecke vereinfachen: Quadric Edge Collapse Decimation
    Ergebnis: PLY, STL (3D Geometrie)
  4. Metadaten nur für Punkte ohne Kontur
    Möglichkeiten:
    - Simples Thresholding (falls Ausreichend)
    - Oder KI basiert: Self-Organizing Maps (SOM), U-Net verwenden (siehe Publikationen)
  5. Visualisierung & Analyse
    - 3D-Geometrie mit transparentem Material (z. B. Glas)
    - Überlagerte Punktewolke mit Metadaten
    - Ermöglicht: Prozessanalyse, Defekterkennung, Korrelation von Geometrie

 

LPBF Cube mit Defekterkennung
Detektion von Anomalien in DED Prozessen mit Autoencodern
Ausgangslage

Aufgrund von Unregelmäßigkeiten können während eines Schweißprozesses Fehler im Schweißbild entstehen. Beispielsweise kann es während einer Schweißung zur Entstehung von Poren oder Spritzern an der Oberfläche kommen. Diese Art der Anomalien können mit einfacher Kameratechnik aufgezeichnet werden. Die resultierenden Bilder enthalten die Information der Fehler, jedoch nicht die Detektion und Klassifizierung der Fehler.

Herausforderungen: Detektion von Anomalien

Grundsätzlich ist es schwierig einen Datensatz aus Bildern mit detektierten Fehlern zu erstellen, da der Aufwand enorm ist. Idealerweise lassen sich die ausschließlich als „Guteile“ bewerteten Schweißungen als Trainingsdaten heranziehen. Zur Detektion der Anomalien kann dadurch eine „unsupervised“ Lernmethode verwendet werden.

Autoencoder und Differenzbilder

Der verwendete Autoencoder wird ausschließlich mit Bildern von „idealen“ Schweißprozessen trainiert. Dazu wird jedes Bild in einen latenten kleindimensionalen Raum transformiert und anschließend auf die Originalbildgröße zurücktransformiert. Der latente Raum hat den Vorteil, dass dieser nur die Kernmerkmale einer Schweißnaht repräsentiert. Der Autoencoder hat also die Aufgabe ein Eingangsbild in den latenten Raum zu transformieren und anschließend möglichst Originalgetreu zurück in den Bildbereich rücktransformieren. Die Differenz zwischen dem Eingangs- und Ausgangsbild ist also nahezu null.
Da die Trainingsdaten keine Anomalien enthalten, können diese bei der Rücktransformation auf die Originalbildgröße nicht rekonstruiert werden. Sollte nun ein Prozessbild einen Fehler enthalten spiegelt sich das in einem Fehler der Rücktransformation wider, wodurch das Differenzbild Werte weit oberhalb von null ergibt. Die Position dieser Abweichung gibt einen direkten Rückschluss auf die Position der Anomalie im Schweißbild.

Quelle [1]: Li et al. 2025, „Application of unsupervised learning methods based on video data for real-time anomaly detection in wire arc additive manufacturing“, Journal of Manufacturing Processes, Bd. 143, S. 37-55.
DOI: doi.org/10.1016/j.jmapro.2025.03.113