Aufbereitung, Interpretation und Vergleich von technischen Zeichnungen und Plänen

Einleitung

Ziel des Projektes ist die Optimierung von Algorithmen zur Bildvorverarbeitung und -analyse von Schwarz/Weiß-Zeichnungen hinsichtlich einer höheren Rauschunempfindlichkeit, um eine Interpretation solcher Zeichnungen auch unter stark gestörten Bedingungen zu ermöglichen.

Die für solche Probleme vorhandenen Algorithmen setzen zumeist ideale (rauschfreie) Bedingungen voraus, die aber in der Praxis zumeist nicht gegeben sind.

Weiterhin sollen Verfahren entwickelt werden, die den Vergleich verschiedenen interpretierter Zeichnungen ermöglichen.

Vorhaben

Zur Digitalisierung und Interpretation einer Zeichnung sind i.a. mehrere Schritte notwendig:

Scannen:
Digitalisierung der Zeichnung (die Zeichnung wird zeilen- und spaltenweise optisch abgetastet und der Helligkeitswert an jedem Rasterpunkt (Pixel) registriert).
Das Scannen von Zeichnungen und Plänen ist heute mit geeigneter Hardware in mehr als ausreichender Güte (Auflösung) zu realisieren.

Pre-Processing:
Dieser Schritt dient zur Elimination von Störungen, Flecken, optischen Rauschen sowie der Durchführung von Beleuchtungs- und Kontrastkorrekturen.
Danach wird das gescannte Grauwertbild in ein Schwarz / Weiß-Bild umgewandelt (binärisiert).

Vektorisierung:
Die Rasterdaten werden durch geeignete Verfahren in Vektordaten (Menge von Liniensegmenten) konvertiert. Die Rasterdaten werden allerdings noch für die Schrifterkennung und die Analyse ausgefüllter Objekte benötigt.
Dieser Grobvektorisierung schließt sich eine lokale Feinvektorisierung an, bei der kurze Vektoren zu längeren "bereinigt" und Lücken geschlossen werden.

Segmentierung und Klassifizierung:
Die den Vektordaten zugrundeliegenden primitiven Grafikelemente (Linien, Kreise, Bögen, Rechtecke, Dreiecke, Texte, Maßpfeile etc.) werden extrahiert (rekonstruiert).

Schrifterkennung:
Textstücke (hand- oder maschinenschriftlich) werden mit geeigneten OCR-Verfahren erkannt.

Post-Processing:
Die erkannten Maßangaben werden zur Geometriekorrektur herangezogen. Grafik- und Textdaten werden für die weitere Verwendung aufbereitet (z.B. durch Konvertierung in geeignete Datenformate wie etwa das DXF-Format von AutoCAD o.ä.).

Vergleich:
Um verschiedene Zeichnungen desselben Objektes im Bestand aufzufinden, ist abschließend ein automatisierter Vergleich aller Zeichnungen des Bestandes notwendig.
Dazu muß von je zwei zu vergleichenden Zeichnungen eine einer geeigneten, durch ein Optimierungsverfahren zu bestimmenden affinen Transformation unterworfen werden, so daß das Resultat bestmöglich mit der zweiten Zeichnung oder einem Ausschnitt derselben übereinstimmt.
Liegen Zeichnungen von verschiedenen Seitenansichten eines Objekts vor, so ist vor dem Vergleich die Bildung eines dreidimensionalen Modells in Erwägung zu ziehen.

Klar ist dabei, daß die Qualität der Resultate der letzten Schritte sehr von der Güte der ersten abhängt. Es wird deshalb notwendig sein, die zu den ersten Schritten (insbesondere der Vektorisierung) vorliegenden Standard-Verfahren hinsichtlich Ausgabegüte hin zu optimieren. Literatur W. ABMAYR:Einführung in die digitale Bildverarbeitung, B. G. Teubner Verlag, Stuttgart, 1994 H. BLEY:Segmentation and preprocessing of electrical schematics using picture graphs, Computer Vision, Graphics and Image Processing, Vol. 28, 1984, S. 271-288 D.S. DOERMANN:Document Image Understanding: Integrating Recovery and Interpretation, Dissertation, University of Maryland, 1993 M. D. GARRIS:NIST Form-Based Handprint Recognition System, National Institute of Standards and Technology, Computer Systems Laboratory, Gaithersburg, MD B. HAPPEL,J. MURRE:The Design and Evolution of Modular Neural Network Architectures, Neural Networks, Vol. 7, 1994, S. 985-1004 S. C. HINDS,J. L. FISHER,D. P. D'AMATO:A Document Skew Detection Method using Run-Length Encoding and the Hough Transform, Proceedings of the 10th International Conference on Pattern Recognition, 1990, S. 464-468 R. KASTURI,S. T. BOW u.a.:A System for Interpretation of Line Drawings, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12, No. 10. Oktober 1990, S. 978-992 T. KOHONEN:New Developments of Learning Vector Quantization and the Self-Organizing Map, Symposium on Neural Networks; Alliances and Perspektives in Senri, Osaka, Japan, 1992 V. F. LEAVERS:Survey: Which Hough Transform ?, Computer Vision and Image Understanding, Vol. 58, No. 2, Sept. 1993, S. 250-264 T. PAVLIDIS:A vectorizer and feature extractor for document recognition, Computer Vision, Graphics and Image Processing, Vol. 35, 1986, S. 111-127 A. ROSENFELD:Picture Processing: 1987, Computer Vision, Graphics and Image Processing, Vol. 42, 1988, S. 234-293 T.Y. ZHANG,C.Y. SUEN:A Fast Parallel Algorithm for Thinning Digital Patterns, Communications of the ACM, Vol. 27, No. 3, März 1984, S. 236-239 Veröffentlichungen zu diesem und anderen Forschungschwerpunkten unseres Lehrstuhls finden Sie auf unserer Publikationsseite. Ansprechpartner: Dipl.-Math. Jochen Biedermann, Prof. Dr. Ludwig Cromme