{"id":542,"date":"2013-03-10T00:27:41","date_gmt":"2013-03-09T22:27:41","guid":{"rendered":"http:\/\/vrlab.reutlingen-university.de\/web\/?p=542"},"modified":"2016-12-11T17:57:08","modified_gmt":"2016-12-11T16:57:08","slug":"gestenerkennung-im-3d-raum-mit-worldviz","status":"publish","type":"post","link":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/542\/gestenerkennung-im-3d-raum-mit-worldviz.html","title":{"rendered":"Gestenerkennung im 3D-Raum mit WorldViz"},"content":{"rendered":"<p>Das Projekt von R\u00fcdiger Marwein besch\u00e4ftigt sich damit, den <a href=\"http:\/\/www.worldviz.com\/\">WorldViz<\/a> Tracking-Raum f\u00fcr Anwendungen zu nutzen. Genutzt wird die Entwicklungsumgebung Vizard und die dort genutzte Programmiersprache Python.\u00a0Begonnen wurde mit einer Umfahrung von Objekten durch Bewegung vor der Projektionswand (3D-Inspektion). Aus den daraus gewonnen Erkenntnissen entstand zun\u00e4chst eine Ortungsbibliothek, die zum einen die Marker-Koordinaten normalisiert und zum anderen eine Tastatursteuerung der Wertver\u00e4nderung zul\u00e4sst.<\/p>\n<p>Als Referenzprojekt zur Locator-Bibliothek entstand ein einfaches Schachspiel, bei dem alle drei Achsen und eine Senken-und-Heben-Geste zur Aufnahme und zum Absetzen von Figuren genutzt wurde.<\/p>\n<p><iframe width=\"560\" height=\"315\" src=\"http:\/\/www.youtube.com\/embed\/011C_Ec7VhM\" frameborder=\"0\" \u00a0allowfullscreen><\/iframe><\/p>\n<p><iframe width=\"560\" height=\"315\" src=\"http:\/\/www.youtube.com\/embed\/P0JliguyMN4\" frameborder=\"0\" allowfullscreen><\/iframe><\/p>\n<p>Bei der \u00dcberlegung einen Einstellungsdialog im Schachspiel durch Nutzung der Trackingdaten zu steuern, wurde klar, dass es hier ohne flexiblere Gestenerkennung nicht weitergeht.<\/p>\n<p>Aktuell befindet sich also eine Gestenerkennung in Arbeit, die Objektketten durch Delta-Wertver\u00e4nderungen abarbeitet (vgl. <a href=\"http:\/\/de.wikipedia.org\/wiki\/Hidden_Markov_Model\">Hidden Markov Model<\/a>) und so Gesten erkennt und &#8222;Events&#8220; ausl\u00f6st.<br \/>\nF\u00fcr die Gestenerkennung wurden bislang drei Teile entwickelt:<\/p>\n<ol>\n<li>Die Gestenkonstruktion und -erkennung selbst<\/li>\n<li>Eine Gesten-Aufnahme-Anwendung<\/li>\n<li>Eine Visualisierung der aufgenommen Gesten (durch Nutzung der 3D-Inspektion)<\/li>\n<\/ol>\n<p>Ziel ist es nun, die Gestenerkennung zu validieren und mit Beispielsanwendungen zu pr\u00fcfen, um so m\u00f6gliche Schw\u00e4chen zu identifizieren.<\/p>\n<p>Die entstandenen Bibliotheken helfen schon jetzt, weitere Anwendungen f\u00fcr den Raum zu entwickeln. Auch die Gestenerkennung soll einfach in neue Anwendungen integriert werden k\u00f6nnen.<\/p>\n<p><iframe width=\"560\" height=\"315\" src=\"http:\/\/www.youtube.com\/embed\/TCaueeh8-qI\" frameborder=\"0\" allowfullscreen><\/iframe><\/p>","protected":false},"excerpt":{"rendered":"<p>Das Projekt von R\u00fcdiger Marwein besch\u00e4ftigt sich damit, den WorldViz Tracking-Raum f\u00fcr Anwendungen zu nutzen. Genutzt wird die Entwicklungsumgebung Vizard [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ngg_post_thumbnail":0,"footnotes":""},"categories":[31,6],"tags":[],"class_list":["post-542","post","type-post","status-publish","format-standard","hentry","category-archivierte-projekte","category-vrlab-projekte"],"_links":{"self":[{"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/posts\/542","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/comments?post=542"}],"version-history":[{"count":12,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/posts\/542\/revisions"}],"predecessor-version":[{"id":1116,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/posts\/542\/revisions\/1116"}],"wp:attachment":[{"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/media?parent=542"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/categories?post=542"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/vrlab.reutlingen-university.de\/web\/de\/wp-json\/wp\/v2\/tags?post=542"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}