Universal Cognitive User Interface (UCUI)


Verbundprojekt des Bundesministeriums für Bildung und Forschung mit einer Gesamt-Fördersumme von 1,7 Mio. Euro

Das zu entwickelnde kognitive Bedienmodul (Universal Cognitive User Interface) soll neben der Sprachein- und -ausgabe, der Ausgabe von akustischen Signaltönen (earcons) und visuellen Symbolen (icons) auch die Erkennung einfacher Gesten ermöglichen. Alle Ein- und Ausgabemodalitäten werden dabei auf einer Semantikebene zusammengeführt, sodass die entsprechenden Informationen integriert verarbeitet werden. Hier erlaubt das neue Verfahren eine direkte und wechselseitige Verhaltens-Bedeutungs-Übersetzung, wobei in diesem Kontext das ›Nutzerverhalten‹ aus Sprache und Gesten, das ›Systemverhalten‹ dagegen aus Symbolen, Signaltönen und Sprache besteht.

Das Projekt folgt einem bedürfnisorientierten Ansatz. Darum wird die Konstruktion nicht technik-, sondern nutzergetrieben erfolgen und auf der empirischen Erhebung und Modellierung faktischen Nutzerverhaltens – insbesondere nicht-technik-affiner User – basieren. Zudem ist die von uns verwendete Semantikmodellierung (gewichtete Merkmal-Werte-Relationen und modallogische Kalküle) verglichen mit üblichen technischen Lösungen deutlich komplexer: Die Integration verbesserter Semantikmodelle in die bekannten Markov-Entscheidungsprozesse, soll das System in die Lage versetzen, sich als ›kognitive Verhaltensteuerung‹ selbstständig an Kommunikationsgewohnheiten des Nutzers und an seine Problemlösungsstrategien anzupassen und damit weit über einfache Command-and-control-Lösungen hinauszugehen.

Ein vorrangiges Ziel im Rahmen der Realisierung des kognitiven Bedienmoduls stellt eine vertrauenswürdige Mensch-Technik-Interaktion dar, die im Gegensatz zu State-of-the-art-Lösungen strikt die Privatsphäre wahrt: Es können per Design keinerlei Daten an Dritte weitergegeben werden, da das Bedienmodul autonom arbeitet.