Gestenerkennung im 3D-Raum mit WorldViz

Das Projekt von Rüdiger Marwein beschäftigt sich damit, den WorldViz Tracking-Raum für Anwendungen zu nutzen. Genutzt wird die Entwicklungsumgebung Vizard und die dort genutzte Programmiersprache Python. Begonnen wurde mit einer Umfahrung von Objekten durch Bewegung vor der Projektionswand (3D-Inspektion). Aus den daraus gewonnen Erkenntnissen entstand zunächst eine Ortungsbibliothek, die zum einen die Marker-Koordinaten normalisiert und zum anderen eine Tastatursteuerung der Wertveränderung zulässt.

Als Referenzprojekt zur Locator-Bibliothek entstand ein einfaches Schachspiel, bei dem alle drei Achsen und eine Senken-und-Heben-Geste zur Aufnahme und zum Absetzen von Figuren genutzt wurde.

Bei der Überlegung einen Einstellungsdialog im Schachspiel durch Nutzung der Trackingdaten zu steuern, wurde klar, dass es hier ohne flexiblere Gestenerkennung nicht weitergeht.

Aktuell befindet sich also eine Gestenerkennung in Arbeit, die Objektketten durch Delta-Wertveränderungen abarbeitet (vgl. Hidden Markov Model) und so Gesten erkennt und „Events“ auslöst.
Für die Gestenerkennung wurden bislang drei Teile entwickelt:

  1. Die Gestenkonstruktion und -erkennung selbst
  2. Eine Gesten-Aufnahme-Anwendung
  3. Eine Visualisierung der aufgenommen Gesten (durch Nutzung der 3D-Inspektion)

Ziel ist es nun, die Gestenerkennung zu validieren und mit Beispielsanwendungen zu prüfen, um so mögliche Schwächen zu identifizieren.

Die entstandenen Bibliotheken helfen schon jetzt, weitere Anwendungen für den Raum zu entwickeln. Auch die Gestenerkennung soll einfach in neue Anwendungen integriert werden können.

Nach oben scrollen