Refine
Year of publication
- 2014 (4) (remove)
Document Type
- Conference Proceeding (4) (remove)
Has Fulltext
- no (4)
Is part of the Bibliography
- no (4)
Institute
Im Rahmen des diesjährigen Workshop Automotive HMI werden wieder eine Vielzahl an Vorträgen aus dem Bereich automobiler Mensch-Maschine Schnittstellen präsentiert. Des Weiteren ist wie in den beiden letzten Jahren ein Interaktiver Innovationsworkshop Teil des Programms. Das Motto der Mensch und Computer 2014 lautet „Interaktiv Unterwegs “. Dies passt hervorragend zum Thema des Workshops.
In den letzten Jahren ist die Verwendung mobiler Endgeräte im Automotive Bereich immer wichtiger geworden. Auf der einen Seite bringen immer mehr Personen ihre mobilen Geräte mit in ihr Auto und wollen hier auch auf verschiedene Funktionen des jeweiligen mobilen Geräts zugreifen können. Auf der anderen Seite haben sich mobile Geräte und die dort zum Einsatz kommenden Betriebssysteme aber auch als ideale Kandidaten für eine IT Unterstützung im Automotive Bereich herausgestellt. Das Ziel dieses Beitrages ist es, erste Erfahrungen aus der Entwicklung eines Infotainmentsystems auf Basis einer Android basierten Hardware vorzustellen.
Handgesten im Automobil haben das Potenzial einer Kombination von gut sichtbaren Displays nahe der Windschutzscheibe und einer als intuitiv empfundenen Gestensteuerung, wie sie berührungsgesteuert von Smartphones aber auch berührungslos von einigen Fernsehgeräten bekannt ist. Bei entsprechender Positionierung der Sensoren können so die Augen auf der Straße und die Hände am Lenkrad oder zumindest sehr nahe dazu verbleiben. Der hier beschriebene frühe Demonstrator zeigt die Machbarkeit dieser Technologie mit einem neuartigen Erkennungsverfahren.
We present a system for 3D hand gesture recognition based on low-cost time-of-flight(ToF) sensors intended for outdoor use in automotive human-machine interaction. As signal quality is impaired compared to Kinect-type sensors, we study several ways to improve performance when a large number of gesture classes is involved. Our system fuses data coming from two ToF sensors which is used to build up a large database and subsequently train a multilayer perceptron (MLP). We demonstrate that we are able to reliably classify a set of ten hand gestures in real-time and describe the setup of the system, the utilised methods as well as possible application scenarios.