„Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf ·...

72
Hochschule Augsburg WS 2013/2014 Fakultät für Gestaltung Fakultät für Informatik Studiengang: Interaktive Medien Bachelorthesis „Intuitive Gestensteuerung für den Fahrer im Auto“ Name: Markus Benndorff Martrikelnr.: 924351 E-Mail: markus.benndorff@hs-augsburg.de Abgabe: 29.01.2014 Betreuer: Prof. Dr. Michael Kipp Gutachter: Prof. Dr. Michael Kipp

Transcript of „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf ·...

Page 1: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

Hochschule AugsburgWS 2013/2014

Fakultät für GestaltungFakultät für Informatik

Studiengang: Interaktive Medien

Bachelorthesis

„Intuitive Gestensteuerung für den Fahrer im Auto“

Name: Markus Benndorff Martrikelnr.: 924351

E-Mail: [email protected]: 29.01.2014

Betreuer: Prof. Dr. Michael KippGutachter: Prof. Dr. Michael Kipp

Page 2: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

2

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

AbstractDer „Krieg der Knöpfe“ im Auto-Cockpit gefährdet die Sicherheit der Verkehrsteilneh-mer, da die Unübersichtlichkeit und die hohe Anzahl von Schaltern und Knöpfen die Aufmerksamkeit des Fahrers beanspruchen und ihn vom Fahren ablenken. Eine Ges-tensteuerung kann zur Reduzierung der beschriebenen Gefahr beitragen. Anhand des Beispiels des Navigationsystems werden mit Hilfe des „User-Driven-Designs“ Gesten für Anwendungen, wie z.B. Navigation starten/stoppen, Kartenansicht zoomen oder Kar-tenansicht drehen ermittelt. Für die gewünschten Funktionen werden in einem experi-mentellen Kontext Gesten von Versuchspersonen ermittelt und auf Übereinstimmun-gen überprüft. In einem Prototypen (Leap Motion) werden ausgewählte Funktionen für die ermittelten und für definierte Gesten umgesetzt. Es wird validiert, ob die mit Hilfe des „User-Driven-Design“ gefundenen Gesten gegenüber definierten Gesten hinsicht-lich Benutzerfreundlichkeit, Logik, Intuition und Anwendbarkeit geeigneter sind. Für die Bewertung kommen objektive und subjektive Kriterien zum Einsatz. Es hat sich gezeigt, dass mit der Methode des „User-Driven-Design“, intuitive aber keine innovativen Ges-ten gefunden werden können.

Page 3: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

3

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Inhaltsverzeichnis

1. Einleitung ....................................................................................................................... 1.1 Motivation ........................................................................................................ 1.2 Ziele der Arbeit ................................................................................................

2. Hintergrund .................................................................................................................. 2.1 Inspiration ....................................................................................................... 2.2 Gesten .............................................................................................................. 2.3 User-Driven-Design .........................................................................................

3. Designstudie ................................................................................................................. 3.1 Aufbau und Ablauf der Studie ....................................................................... 3.2 Ergebnisse ....................................................................................................... 3.3 Diskussion .......................................................................................................

4. Validierungsstudie ....................................................................................................... 4.1 Technik und Prototyp ..................................................................................... 4.2 Aufbau und Ablauf der Studie ....................................................................... 4.3 Ergebnisse ....................................................................................................... 4.4 Diskussion .......................................................................................................

5. Konklusion ..................................................................................................................... 5.1 Fazit .................................................................................................................. 5.2 Ausblick ............................................................................................................

6. Danksagung ...................................................................................................................

7. Erstellungserklärung ...................................................................................................

8. Quellen ...........................................................................................................................

4 4 5

6689

12 13 17 38

41414650 63

6666 67

68

69

70

Page 4: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

4

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

1. Einleitung

1.1 Motivation

Mit den steigenden technischen Möglichkeiten halten immer weitere Funktionen Ein-zug im Automobil. Um diese ansteuern zu können werden im Auto-Cockpit stetig mehr Knöpfe mit unterschiedlichen Funktionen verbaut. Die hohe Anzahl an Schaltern und Knöpfen in Kombination mit oftmals ungenauen und undeutlichen Beschriftungen und Piktogrammen führt dazu, dass die Übersichtlichkeit des Cockpits verloren geht.

Verlierer im „Krieg der Knöpfe“ [1] ist meistens der Fahrer. Um während der Fahrt Ein-stellungen vornehmen zu können, muss der entsprechende Knopf gefunden werden. Dies hat zur Folge, dass der Führer des Autos seinen Blick von der Straße abwendet. Laut einem Test vom ADAC [2] [3] werden für das Einstellen des Tempomat 4,0 Sek., das Suchen der Radiofrequenz 15,6 Sek., oder das Einstellen der Klimaanlage 5,5 Sek., benötigt.

Die oben beschriebene Unübersichtlichkeit und die damit verbundene Ablenkung füh-ren zu einem erhöhten Unfallrisiko.

Laut einer vom ADAC zitierten Umfrage der Allianz Versicherung [2] wird das Autofah-ren zur „Nebensache“. Das Bedienen des Navigationssystems (55 % der Befragten), das Telefonieren ohne Freisprecheinrichtung (40%) oder die Beschäftigung mit den Arma-turen (35%) sind Tätigkeiten, welche den Fahrer von seiner eigentlichen Aufgabe, dem Autofahren, ablenken.

Abhilfe könnte hier die Gestensteuerung schaffen. Diese bietet den Vorteil, dass der Blick nicht von der Straße abgewendet werden muss, um einen bestimmten Knopf zu finden, sondern eine in der Luft ausgeführte Geste die gewünschte Funktion auslösen kann. Was u.a. bei der Bedienung von Spielen z.B. mit der Microsoft Kinect technisch möglich ist, kann auch bei der Nutzung von Anwendungen im Auto behilflich sein.

Page 5: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

5

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

1.2 Ziele der Arbeit

Mit Hilfe des sogenannten „User-Driven-Design“ soll für ausgewählte Funktionen, wie zum Beispiel Kartenansicht drehen, Navigation einer Route starten/stoppen oder Kar-tenansicht zoomen, einer fiktiven Navigationsanwendung im Auto, Gesten zur deren Steuerung ermittelt werden. Bei dem genannten Verfahren werden mit Hilfe einer De-signstudie die Gesten für die gewünschten Funktionen von den Versuchspersonen fest-gelegt. Dadurch soll eine für spätere Anwender intuitive und somit leicht verständliche Gestensteuerung erstellt werden können.

Die durch die Studie gewonnen Gesten werden in einer Validierungsstudie mit Hilfe ei-nes Prototypen mit „designten“, d.h. mit zuvor definierten, Gesten verglichen. Kriterien für den Vergleich sind unter anderem die benötigte Zeit zur Ausführung der Geste, die Intuition, die Logik und auch der Sicherheitsfaktor der Geste während einer Autofahrt - d.h. kann durch die Verwendung der einzelnen Gesten zur Steuerung der Navigati-onsanwendung eine Ablenkung des Fahrers vermieden werden. Dadurch soll überprüft werden, ob die Ermittlung von Gesten zur Steuerung der Navigatinsanwendung mit Hilfe des User-Driven-Design eine sinnvolle und effektive Methode ist.

Page 6: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

6

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

2. Hintergrund

2.1 Inspiration

Große Autokonzerne wie Mercedes, Audi oder Hyundai arbeiten an ersten Konzepten und Studien für die Gestensteuerung im Auto. Mit deren Hilfe können u.a. der Board-computer, oder Multimediaanwendungen gesteuert werden. Einige ausgewählte Kon-zepte werden im Folgenden beschrieben.

Mercedes-Benz DICE ConceptMercedes arbeitet in seiner Studie DICE (Dynamic & Intuitive Control Experience) am vernetzten Auto [4] [5]. So können z.B. die Menükarten eines Restaurants oder die Kon-taktdaten von Freunden im HUD (Head-Up-Display) in der Frontscheibe angezeigt wer-den. Zwischen den einzelnen Funktionen kann mit einfachen Push- und Swipe-Gesten gewechselt werden.

Gestensteuerung von AudiAudi setzt den Schwerpunkt u.a. auf die Interaktion zwischen Beifahrer und Fahrer. Im Auto-Cockpit stehen drei Bildschirme zur Verfügung [6] [7]. Einer für den Fahrer, einer für den Beifahrer und einer für die beidseitige Nutzung. Mittels einfachen Swipe-Bewe-gungen von links nach rechts, oder rechts nach links, lassen sich Inhalte zwischen den Bildschirmen hin und her schieben. So kann zum Beispiel der Sozius eine neue Route in der Navigationsanwendung festlegen und diese an den Fahrer mit Hilfe der Gesten-steuerung weiter geben.

Abb. 1 Mercedes-Benz DICE1

Abb. 2 Konzept von Audi2

1) Bildquelle: http://blog.caranddriver.com/2012-ces-hands-on-with-the-mercedes-benz-dice-interior-concept/2) Bildquelle: http://www.focus.de/auto/ratgeber/auto-auto-bediensysteme-frieden-im-krieg-der-knoepfe_aid_707454.html

Page 7: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

7

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Hyundai HCD-14 Genesis ConceptBei Hyundai kann der Fahrer dank der Gestensteuerung zum Beispiel in die Kartenan-sicht der Navigationsanwendung ein- und auszoomen (durch vor- und zurückbewegen der Hand und des Arms), die Lautstärke des Radios ändern (durch drehen der Hand), oder zwischen einzelnen Menüpunkten und Anwendungen hin- und herschalten (Swi-pe-Bewegung der Finger) [8].

GestureCarAudioController von Kazuyuki ArimatsuKazuyuki Arimatsu von der Universität Tokio hat eine Gestensteuerung für den Medi-aplayer im Auto entwickelt [9]. Mit seiner Steuerung lassen sich die Songs durch eine Arm- und Handbewegung nach oben starten und stoppen. Die Bewegung nach links und rechts schaltet die Songs entsprechend weiter. Mit einer Drehung der Hand nach links und rechts kann die Lautstärke reguliert werden.

Abb. 4 Konzept von Kazuyuki Arimatsu4

Abb. 3 Hyundai HCD-14 Genesis Concept3

3) Bildquelle: http://www.youtube.com/watch?v=FPLL1pnZKho (Screenshot)4) Bildquelle: http://www.youtube.com/watch?v=oPxn_71SSG0 (Screenshot)

Page 8: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

8

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

2.2 Gesten

Da in der vorliegenden Arbeit Gesten für die Steuerung eines Navigationssytems im Auto ermittelt werden sollen, wird in diesem Punkt kurz darauf eingegangen, wie sich Gesten definieren lassen, und welche Eigenschaften sie speziell bei einer Mensch-Ma-schine-Interaktion aufweisen sollten.

Die folgende Definition der Gesten basiert auf dem Werk von Hennes Witzmann [10], der sich diesbezüglich u.a. auf Adam Kendon, Dagmar Schmauck und Margarete Payer bezieht.

Gesten können, wie folgend zusammengefasst, definiert werden:Gesten werden als Ausdrucksbewegung des menschlichen Körpers verstanden. Vor al-lem die Hände werden für eine zwischenmenschliche Verständigung oder Informati-onsübertragung genutzt. Gesten dienen als Verständigungshilfe, und können die Spra-che unterstützen bzw. ersetzen. Sie sind abgegrenzte Ausflüge, welche ein Maximum und wohldefinierte Grenzen besitzen und eine gewisse Symmetrie aufweisen. Sie lassen sich in beiläufige, ikonische, schematische, metaphorische, technische und kodierte Gesten, Zeitgesten und Beats einteilen bzw. unterteilen [10].

Bei der Mensch-Maschine-Interaktion sollten bzgl. des Interaktionsdesigns folgende vier Eigenschaften bei der Definition von Gesten beachtet werden [11]:

• Jede Geste besitzt ein Zielobjekt oder einen räumlichen Geltungsbereich, in wel-chem sie vom System erkannt werden kann. Sie kann auch zeitlichen Einschrän-kungen unterliegen [11].

• Die ausgeführte Geste entspricht aus der Sicht des Anwenders nur dann einer Geste, wenn sie mit dessen kommunikativer Absicht übereinstimmt [11].

• Eine Geste ist aus der Betrachtungsweise des Systems durch ihr Ereignisprofil eindeutig definiert [11].

• Der Mensch-System-Interaktion genannte kommunikative Prozess wird durch das Rückmeldeverhalten des Systems erst vervollständigt [11].

Diese vier Kriterien waren für den weiteren Verlauf der Arbeit interessant, und haben bei der Erstellung des Prototypen und der Implementierung der Gesten Beachtung und Berücksichtigung gefunden.

Page 9: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

9

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

2.3 User-Driven-Design

Da die in Kapitel 3 (siehe Seite 12) beschriebenen Designstudie auf dem User-Driven-De-sign basiert, soll in diesem Kapitel die Methode erläutert und vorgestellt werden.

User-Centered und User-Driven-Design haben es zum Ziel, interaktive Anwendungen und Produkte so zu gestalten und entwickeln, dass sie über eine hohe Gebrauchstaug-lichkeit und Nutzerfreundlichkeit verfügen [12] [13].

Zu Beginn werden Informationen über mögliche Anwender gesammelt und in Profi-len zusammengefasst. Auch die Aufgaben und Ziele, sowie die Arbeitsabläufe und Ar-beitsumgebung der Nutzer, werden erfasst und analysiert. Mit Hilfe der gesammelten Erkenntnissen werden Anforderungen definiert, welche während des Entwurfsprozes-ses umgesetzt werden. In diesem Prozess entstehen erste Entwürfe, welche zum Bei-spiel zu Papierprototypen oder Mockups ausgearbeitet werden [12] [13].

User-Driven-Design und User-Centered-DesignEs ist zu beachten, dass es einen Unterschied zwischen der Methodik des „User-Cen-tered-Design“ und der des „User-Driven-Design“ gibt [14]. Beide Methoden haben zum Ziel, die Nutzerfreundlichkeit zu verbessern.

Beim User-Centered-Design werden die Aktionen, Reaktionen und das Verhalten der Anwender bzw. Testpersonen auf die bei der Anwendung im Alltag auftretenden Prob-leme von „außen“ beobachtet. Die aus den Beobachtungen gewonnen Ergebnisse flie-ßen schließlich in die Entwicklung ein. Meist keine Berücksichtigung finden die „Ideen“, Anmerkungen und Beobachtungen der Probanden.

Anders beim User-Driven-Design. Hier werden die zukünftigen Anwender bzw. Test-personen nicht nur beobachtet, sondern direkt in den Entwurfs- und Designprozess mit eingebunden. Ihre Erkenntnisse werden in Benutzerstudien ermittelt, und können somit direkt in die Entwicklung weiterer Prototypen bzw. des finalen Produkts, oder der finalen Anwendung mit einfließen. Es ist zu erwarten, dass durch dieses Verfahren entwickelte Produkte bei der breiten Masse als benutzerfreundlich eingestuft werden, und eine intuitive Bedienung gewährleistet ist.

Anhand der folgenden zwei Beispiele wird die Methode des User-Driven-Design veran-schaulicht.

Ermittlung eines Gestensets für TouchanwendungenDie zur Steuerung von interaktiven Oberflächen benötigten Gesten werden meist von Interaktionsdesigner entwickelt und definiert [15]. Sie führen auch die Tests am Proto-typen durch, oder bringen die Gesten den Testpersonen bei. Dies hat zur Folge, dass die Gesten vom System eindeutig identifizierbar und unterscheidbar sind, jedoch nicht

Page 10: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

10

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 5 „The user-defined gesture set“5

mit den Gesten übereinstimmen, welche von den Benutzern intuitiv gewählt werden würden. Jacob O. Wobbrock, Meredith Ringel Morris und Andrew D. Wilson beschrei-ben in Ihrer Arbeit „User-Defined Gestures for Surface Computing“ [15] die „Entwick-lung“ von Gesten, welche nicht hinsichtlich der Unterscheidbarkeit und den technischen Gegebenheiten des Systems entwickelt werden, sondern nach den Bedürfnissen der Anwender. Es ist die erste Arbeit bei der für die Gesten-Definition der Anwender im Mittelpunkt steht.

In der Studie sollten u.a. folgende Fragen geklärt werden: „Welche Art von Gesten ma-chen Anwender ohne technische Erfahrungen?“, „Was sind die wichtigsten Merkmale der Gesten aus Sicht der Anwender?“, „Ist die Anzahl der verwendeten Finger wichtig?“Für die Studie wurden zwanzig Versuchspersonen eingeladen. Es wurden explizit Per-sonen ausgewählt, welche keine Erfahrungen mit Multitouchsteuerungen hatten, da erwartet werden konnte, dass sie sich bzgl. der gestellten Aufgaben anders verhalten würden, als Personen mit Erfahrung.

Auf einem Microsoft Surface Prototyp sahen die Versuchspersonen die Auswirkung ei-ner Geste - es bewegt sich z.B. ein Objekt über den Bildschirm. Die Probanden wurden nun gebeten, eine Geste auszuführen, von der sie dachten, sie würde zu der gezeigten Auswirkung führen. Die Geste sollte mit einer, und mit zwei Händen ausgeführt wer-

5) Abb. entnommen aus User-Defined Gestures for Surface Computing (2009)

Page 11: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

11

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

den. Um eine mögliche Verzerrung der Ergebnisse und eine Befangenheit der Testper-sonen zu vermeiden, wurde bei dem Prototypen für die Touchanwendungen auf spezi-elle Windows und Macintosh Elemente verzichtet. Stattdessen agierten die Probanden in einer einfachen „Welt“ aus 2D-Formen/Elementen. Des Weiteren wurden die Teilneh-mer gefilmt, und sollten bei der Ausführung der Gesten das „Laute-Denken“ anwenden, d.h. sie haben ihr Überlegungen laut ausgesprochen.

In der Studie wurden 1080 Gesten registriert, welche anschließend ausgewertet wur-den. Die Gesten der Versuchspersonen wurden auf Übereinstimmungen untersucht. Je mehr Teilnehmer die gleiche Geste für einen gegebenen Befehl verwendeten, desto wahrscheinlicher war es, dass diese Geste auf diesen Befehl zugewiesen wurde.

Somit konnte ein Gestenset (siehe Abb. 5 auf S. 10) für Multitouch-Anwendungen ermit-telt werden, welches auf tatsächlichem Nutzerverhalten basiert. Die Ergebnisse können Interaktions- und Systemdesigner als Grundlage für zukünftige Anwendungen dienen, und ihnen helfen, bessere und userfreundlichere Gesten zu definieren. Eine Validierung der ermittelten Gesten steht noch aus.

Interaktion mit PhonegesturesÄhnlich wie Wobbrock beschäftigte sich auch Kray in seiner Arbeit „User-Defined Gestu-res for Connecting Mobile Phones, Public Displays, and Tabletop“ [16] mit mittels einer userbasierten Studie ermittelten Gesten für eine Mensch-Maschine-Interaktion. Wäh-rend bei Wobbrock der Fokus auf Gesten für die Steuerung von Touchgeräten und -an-wendungen lag, interessierte sich Kray für die gestengesteuerte Interaktion von Smart-phone zu Smartphone, bzw. von Smartphone zu anderen Geräten. In diesem Bereich funktioniert ein Großteil der Interaktion nur via physikalischen Gesten. Deshalb lag das Ziel darin, mit Hilfe der Studie für den Anwender natürliche Gesten zu finden.

Für die Benutzerstudie wurden dreiundzwanzig Versuchspersonen im Alter zwischen 18 und 50 Jahren mit unterschiedlicher technischer Erfahrung eingeladen. Die Proban-den sollten für zwanzig vorgegeben Aktionen für sie intuitive „Phonegestures“ [16] (Ges-ten die mit dem Smartphone in der Hand ausgeführt werden) ausführen. In der Studie wurde die Interaktion von Smartphone zu Smartphone, von Smartphone zu Tabletop und von Smartphone zu Public Displays (Bildschirme die in öffentlichen Räumen ausge-stellt sind) simuliert.

Die von den Versuchspersonen dargestellten Gesten wurden aufgezeichnet und nach Kriterien wie benötigte Zeit zur Ausführung, Bewegungsrichtung und -reichweite der Geste und subjektiven Empfinden der Testpersonen bewertet und kategorisiert.

Im nächsten Schritt sollen die ermittelten Gesten auf Übereinstimmungen in den ge-nannten Bereichen überprüft werden. Ziel ist es, ein Gestenset für die in der Studie de-finierten Funktionen zu erhalten, das zukünftigen Anwendern eine intuitive Steuerung und Interaktion ermöglicht.

Page 12: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

12

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

3. Designstudie

Um nach der im vorangegangen Kapitel beschriebenen Methode des User-Driven-De-sign Gesten für die verschiedenen Funktionen der Navigationsanwendung im Auto zu ermitteln, wurde eine Designstudie durchgeführt. Vorab wurden Überlegungen ange-stellt, welche Funktionen der Navigationsanwendung eher im Stand, und welche wäh-rend der Fahrt durchgeführt werden, und daher sinnvollerweise mit einer Gestensteu-erung belegt werden könnten.

Folgende Funktionen waren daher für die Befragung relevant:• Das Hauptmenü des Boardcomputers öffnen (aktuelle Anwendung beenden)

Es soll mit einer Geste jede im Moment laufende Anwendung geschlossen, und das Hauptmenü des Boardcomputers aufgerufen werden können.

• Im Hauptmenü zur Navigationsapp scrollen Mit einer Geste soll durch das Hauptmenü des Boardcomputers gescrollt werden können, um zu den gewünschten Anwendungen, in diesem Fall zur Navigations-anwendung, zu gelangen. Das Menü besitzt eine horizontale Anordnung, d.h. die Menüpunkte befinden sich nebeneinander.

• Navigation-App auswählen Die gewünschte Anwendung, in diesem Szenario das Navigationssystem, soll mit einer Geste ausgewählt und gestartet/aktiviert werden.

• Navigation (Route) starten Nachdem bereits der Zielort eingeben wurde, soll mit einer Geste die aktuelle Na-vigation zu dem gewünschten Ziel gestartet werden.

• Navigation (Route) stoppen Eine aktuell laufenden Navigation soll mit einer Geste zu jeder Zeit gestoppt wer-den können.

• „Mein Zuhause“ wählen (als Favorit gespeicherter Zielort) Ein in der Navigationsanwendung als Favorit gespeichert Ort soll mit einer Geste aufgerufen und die Navigation zu diesem gestartet werden.

• Aus Karte zoomen Mit einer Geste soll aus der Karte gezoomt werden können, d.h. die Kartenansicht soll mit Hilfe der Geste verkleinert werden.

• In Karte zoomen Mittels einer Geste soll die Kartenansicht der laufenden Navigation vergrößert werden.

• Karte drehen (links / rechts) Die Kartenansicht in einer laufenden Navigation soll mit einer Geste nach links und rechts gedreht werden können.

• Auf Nacht-/Tagfarben umschalten Durch eine Geste soll während der Navigation das Farbschema der Anwendung geändert werden. Entweder auf Tagansicht (helle Farben) oder Nachtansicht (dunkle Farben).

Page 13: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

13

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

• Lautstärke regeln Die Lautstärke der Sprachausgabe der Anwendung soll mit einer Geste geändert werden.

• Ton ausschalten Die Sprachausgabe der Navigation soll mit einer Geste komplett ausgeschalten werden.

• Ton einschalten Bei ausgeschaltener Sprachausgabe soll diese mittels einer Geste wieder aktiviert werden können.

• Menü der Navigation-App aufrufen Während einer laufenden Navigation soll mit einer Geste das Menü der Navigati-onsanwendung aufgerufen werden.

• Menü der Navigation-App schließen Mit einer Geste soll das Menü geschlossen werden, um zur aktuellen Navigation zurückzukehren.

• Im Navigationsapp-Menü scrollen Mit einer Geste soll durch das Menü der Navigationsanwendung gescrollt werden können, um zu den gewünschten Einstellungen zu gelangen. Das Menü besitzt eine vertikale Anordnung, d.h. die Menüpunkte befinden sich untereinander. Damit soll beobachtet werden, wie sich die Gesten der Versuchspersonen im Ver-gleich zu der horizontalen Anordnung ändern.

• Menüpunkt auswählen Mit einer Geste soll der gewünschte Menüpunkt ausgewählt werden.

• Hilfe aufrufen Mit Hilfe einer Geste soll direkt das Hilfemenü aufgerufen werden, ohne den „Um-weg“ über das Menü der Anwendung gehen zu müssen.

3.1 Aufbau und Ablauf der Studie

AufbauDie Designstudie fand an der Hochschule Augsburg in einem geschlossenen Raum statt. Dadurch war ein reibungsloser Ablauf der Studie möglich, und eine Unterbre-chung, Störung und Ablenkung während den einzelnen Befragungen konnte vermieden werden. Um den Testpersonen eine bessere Vorstellung des Autocockpits zu vermit-teln, und um eine Situation zu schaffen, welche an die des Fahrens mit dem Automobil erinnert, wurde auf einem Tisch ein Lenkrad platziert. Vor diesem befand sich ein Stuhl, welcher den Fahrersitz darstellte, und auf welchem die Probanden während des Tests Platz nehmen mussten.

Mit Hilfe von Kameras wurde die Befragung jedes einzelnen Probanden aufgezeichnet, um eine bestmögliche Auswertung der gezeigten Gesten zu erhalten. Die erste Kamera

Page 14: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

14

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Kamera 1

Kamera 2

Lenkrad

Stuhl

Erfassungs-bereich für die Gesten

Erfassungs-bereich für die Gesten

Abb. 6 Aufbau der Designstudie

(Kamera 1) wurde so platziert, dass die Ausführung der Gesten von vorne und schräg oben aufgenommen werden konnte, die zweite Kamera (Kamera 2) war rechts neben dem Lenkrad positioniert, da die Gesten neben diesem ausgeführt wurden. Des Wei-teren konnte mit Hilfe der seitlichen Kamera die Bewegungen nach oben und unten besser erfasst werden (siehe Abb. 6). Neben der Videoaufzeichnung erfolgte eine To-naufnahme der Versuchspersonen während der Befragung.

VersuchspersonenFür die Designstudie wurden sieben Versuchspersonen, davon vier männliche und drei weibliche, eingeladen. Die Versuchspersonen umfassten eine Alterspanne von 23 bis 31 Jahren. Des Weiteren wiesen die Probanden eine unterschiedliche Technikaffinität, sowie unterschiedliche Erfahrungen im Umgang mit Gestensteuerungen und Navigati-onssystemen auf. Siehe dazu auch die Tabelle auf Seite 15.

Page 15: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

15

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Vorgespräch

Befragung

Nachbesprechung

Aufgabe / Funktion

Darstellung Geste

Die für die Designstudie eingeladenen Personengruppe verfügte über einen unter-schiedlichen technischen Hintergrund und setzte sich wie folgt zusammen:Anzahl der Probanden 7, davon 3 Frauen und 4 MännerAltersspanne 23 bis 31 JahreDurchschnittsalter 26,7 JahreAnzahl Rechtshänder 6Anzahl Linkshänder 1Erfahrung mit Navigations-systemen

4

Erfahrung mit Gestensteu-erung

7

Mit Touch-Steuerung 7Mit berührungsloser Ges-tensteuerung

4

Pro Proband wurde ein Zeitraum von einer Stunde eingeplant. Jede der Testpersonen wurde einzeln und nacheinander befragt, so dass eine gegenseitige Beeinflussung ver-mieden werden konnte. Dadurch wurde gewährleistet, dass die Versuchspersonen un-voreingenommen waren und Gesten darstellten, die auf ihren eigenen Ideen basierten.

AblaufDie Designstudie war in die drei Teile Vorgespräch, Papertest (Befragung) und Nachbe-sprechung unterteilt (siehe hierzu Abb. 7).

Abb. 7 Ablauf der Designstudie

Tab. 1 Zusammensetzung der Versuchspersonen der Designstudie

Page 16: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

16

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

VorgesprächJede Testperson wurde zu Beginn der Befragung über den Grund der Designstudie, den Ablauf, und das mit dieser Arbeit verbundene Ziel informiert.

Die Probanden wurden angewiesen, vor dem Lenkrad platz zu nehmen, und dieses ständig mit mindestens einer Hand zu umgreifen. Somit sollte die Situation während einer echten Autofahrt simuliert werden. Da durch die Gestensteuerung auch die Si-cherheit während einer Autofahrt erhöht werden soll, sollten die Gesten nur mit einer Hand dargestellt werden, während mit der anderen Hand weiterhin das Auto „gesteu-ert“ wurde.

Die Gesten sollten links oder rechts neben dem Lenkrad ausgeführt werden, da so deut-lich mehr Platz für die Bewegungen nach vorne und hinten zur Verfügung standen, als direkt vor dem Lenkrad. Zur Darstellung der verschiedenen Gesten hatte jede Testper-son den linken oder rechten Arm, die linke oder rechte Hand, sowie alle sich an dieser befindenden fünf Finger zur Verfügung. Die Versuchspersonen konnten für die Ausfüh-rung der Gesten alle drei Achsen des 3D-Raum nutzen. D.h. es waren die Bewegungen nach links und rechts, oben und unten, vor und zurück möglich und erlaubt. Auch Rota-tionen, also Drehungen des Arms, der Hand, oder der Finger konnten genutzt werden.

Die Probanden wurden angehalten, während der Darstellung ihrer Gesten das Prinzip des sogenannten „lauten Denkens“ anzuwenden. Sie sollten Ihre Überlegungen, Gedan-ken und Ideen zu jeder einzelnen Geste während deren Ausführung laut aussprechen. Somit konnte nachvollzogen werden, warum eine Versuchsperson die von ihr gezeigte Geste für eine bestimmte Funktion verwendete, und was der Grund ihrer Wahl war.

Des Weiteren wurden die Testpersonen über die Video- und Tonaufnahmen informiert.

Befragung Um die Testpersonen nicht unnötig durch Worte zu beeinflussen, und zu garantieren, dass die gezeigte Geste vom Probanden möglichst intuitiv ausgeführt wird, wurde für die Designstudie ein sogenannter „Papertest“ verwendet. Während der Befragung wur-de deshalb für alle am Anfang dieses Kapitels erläuterten Funktionen der Navigations-anwendung immer eine Abbildung der Ausgangssituation gezeigt, und anschließend eine Abbildung der Zielsituation. Es wurde darauf geachtet, die Abbildungen möglichst schlicht und einfach zu gestalten, um die Versuchspersonen in ihrer Gestenwahl nicht unnötig zu beeinflussen.

Der Proband wurden nun aufgefordert, eine Geste auszuführen, mit deren Hilfe er sei-ner Meinung nach am besten von Situation A zu Situation B gelangt (siehe Abb. 8 auf S. 17). Die Versuchspersonen hatten für die Wahl der Geste beliebig lange Zeit. Hatte ein Proband die Abbildungen des Papertests nicht verstanden, und wusste somit nicht welche Funktion gemeint war, wurde ihm diese vom Versuchsleiter erklärt.

Page 17: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

17

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 8 „Papertest“ für das Beispiel Kartenansicht zoomen

NachbesprechungIn der Nachbesprechung wurden alle Probanden mit Hilfe eines Fragebogens zur ihrer bisherigen Erfahrung im Umgang mit Gestensteuerungen und Navigationsanwendung bzw. -geräten befragt. Des Weiteren wurde von jeder Testperson das Alter, das Ge-schlecht, und ob sie Rechts- oder Linkshänder sind, erfragt. Mit den Versuchsperso-nen wurden im Nachhinein des Papertests nochmal alle Funktionen, und die von ihnen dazu verwendeten Gesten besprochen. Sie hatten des Weiteren die Möglichkeit, Gesten durch ihnen nach der Befragung geeigneter erscheinende zu ersetzen, oder Gesten für die verschiedenen Funktionen zu tauschen. Sie mussten sich für eine finale Geste entscheiden. Die Probanden wurden ebenfalls dazu befragt, ob sie sich eine Gesten-steuerung im Autovorstellen können, und ob sie diese als sinnvoll erachten. Sonstige Anmerkungen konnten die Versuchspersonen ebenfalls machen.

3.2 Ergebnisse

In der Designstudie wurden von den sieben Versuchspersonen jeweils mindestens acht-zehn Gesten ausgeführt, so dass am Ende der Studie ein Pool von mehr als 126 einzel-nen Gesten zur Auswertung zur Verfügung stand. Diese wurden auf Übereinstimmun-gen wie Bewegungsrichtung, Anzahl der verwendeten Finger, Finger- und Handstellung, und Bewegungsablauf überprüft, und verglichen. Dadurch sollte zu jeder Funktion eine finale Geste festgelegt werden können, welche von der Mehrheit der Testpersonen, und somit auch besten Falls von der Mehrheit zukünftiger Anwender, als intuitiv empfunden wird.

Bei allen Probanden war stets mit der linken Hand das Lenkrad umgriffen, die rechte nutzten sie zur Darstellung der Gesten zu den jeweiligen Funktionen. Die auf den nächs-ten Seiten folgenden weiteren Ergebnisse konnten mit Hilfe der Designstudie ermittelt werden.

Page 18: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

18

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 9 Geste: Das Hauptmenü des Boardcomputers öffnen

Das Hauptmenü des Boardcomputers öffnen (aktuelle Anwendung beenden) Getestete Versuchspersonen: 7Bewegung links/rechts: 2 VP von 7Bewegung oben/unten: 4 VP von 7Kombination von Bewegungen: 1 VP von 7Verwendung der gesamten Hand: 4 VP von 7Verwendung einzelner Finger: 3 VP von 7

Bei den vier von sieben Versuchspersonen, die die Hand nutzten, war der Handrücken jeweils nach oben gedreht und die Finger zeigten waagrecht nach vorne. Zwei von den vier Versuchspersonen führten die Bewegung von links nach rechts aus. Während bei einem von den zwei Probanden die Bewegung aus dem Handgelenk erfolgte, bewegte die andere Versuchsperson zusätzlich zur Hand den Arm mit. Zwei von den vier Proban-den bewegten die Hand von oben nach unten. Bei beiden erfolgte die Bewegung aus dem Handgelenk.

Ein Proband bewegt die Hand und den Arm von oben nach unten. Dabei waren Zeige- und Mittelfinger nach vorne ausgestreckt. Die Bewegung erfolgte aus dem Ellenbogen.

Eine Versuchsperson zeigte in der Ausgangssituation eine geöffnete Hand. Sie schloss die Hand, so dass sich in der Endposition die Finger und der Daumen an der Fingerspit-zen berühren.

Eine Testperson zeichnete mit senkrecht nach oben ausgestrecktem Zeigefinger einen Kreis in die Luft.

Insgesamt konnte bei der Funktion „Das Hauptmenü des Boardcomputers öffnen (aktuelle Anwendung beenden)“ die meisten Übereinstimmungen bei folgender Geste festgestellt werden:

Page 19: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

19

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 10 Geste: Im Hauptmenü zur Navigationsapp scrollen

Im Hauptmenü zur Navigations-App scrollen (horizontale Anordnung der Menüpunkte)

Getestete Versuchspersonen: 7Bewegung links/rechts: 7 VP von 7Verwendung der gesamten Hand: 6 VP von 7Verwendung einzelner Finger: 1 VP von 7

Sechs von sieben Probanden hielten jeweils ihre Hand senkrecht, so dass die Handin-nenfläche nach links gedreht war. Um in dem Menü mit einer horizontalen Anordnung der Menüpunkte zwischen den einzelnen Auswahlmöglichkeiten hin und her zu scrol-len, bewegten die Probanden die Hand von rechts nach links um nach links durchzu-schalten, und von links nach rechts, um im Menü weiter nach recht zu gelangen.Einen kleinen Unterschied gab es während der Gestenausführung in der Bewegung.Ein Proband bewegte nur die Hand, d.h. die Bewegung erfolgte aus dem Handgelenk. Bei den anderen fünf Versuchspersonen wurde zusätzlich zur Hand der Arm mitbewegt.

Eine von sieben Testpersonen führte die Bewegung ebenfalls aus dem Handgelenk aus. Sie nutzte allerdings nicht die gesamte Hand, sondern nur den waagrecht nach vorne ausgestreckten Zeigefinger.

Folgende Geste wurde für die Funktion „Im Hauptmenü zur Navigations-App scrollen“ definiert:

Page 20: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

20

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 11 Geste: Navigation-App auswählen

Navigation-App auswählen

Getestete Versuchspersonen: 7Bewegung oben/unten: 2 VP von 7Bewegung vor/zurück: 4 VP von 7Keine Bewegung: 1 VP von 7Verwendung der gesamten Hand: 4 VP von 7Verwendung einzelner Finger: 3 VP von 7

Vier von sieben Versuchspersonen nutzten jeweils die gesamte Handfläche zur Aktivie-rung des Menüpunktes. Während drei von vier Probanden mit der Handfläche und dem Arm eine Bewegung ausführten, sowohl leicht nach vorne, als auch leicht nach unten, hielt eine von den vier Versuchspersonen die Hand ruhig in der Luft. Der Handrücken zeigte dabei zum Probanden, die Finger senkrecht nach oben – dies war bei allen vier der Fall.

Drei von sieben Testpersonen nutzten den waagrecht nach vorne ausgestreckten Zei-gefinger um den gewünschten Menüpunkt anzuwählen. Zwei dieser drei Versuchs-personen führten mit dem Zeigefinger eine Tippbewegung von oben nach unten aus. Der Finger wurde am Grundgelenk bewegt. Einer von drei Probanden hielt den Finger waagrecht und bewegte die Hand und den Arm nach vorne.

Da hier die meisten Übereinstimmungen gefunden wurden, wurde folgende Geste für die Funktion „Navigations-App auswählen“ festgelegt:

Page 21: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

21

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 12 Geste: Navigation (Route) starten

Navigation (Route) starten

Getestete Versuchspersonen: 7Bewegung oben/unten: 2 VP von 7Bewegung vor/zurück: 3 VP von 7Keine Bewegung: 2 VP von 7Verwendung der gesamten Hand: 3 VP von 7Verwendung einzelner Finger: 4 VP von 7

Vier Versuchspersonen gebrauchten die Finger zur Ausführung der Geste. Zwei Test-personen nutzten den Zeigefinger, jedoch unterschied sich die Bewegung. Ein Proband führte mit dem waagrecht nach vorne ausgestrecktem Zeigefinger eine Tippbewegung nach unten aus. Der andere nutzte ebenfalls den ausgestreckten Zeigefinger und die Bewegung nach unten. Allerdings wurde der komplette Arm bewegt, d.h. die Bewegung erfolgte aus dem Ellenbogengelenk. Eine Versuchsperson verwendete den senkrecht nach oben ausgestreckten Daumen, die weiteren Finger bildeten eine Faust. Ein weite-rer Proband führte mit den nach vorne gerichteten Zeige- und Mittelfinger eine Tippbe-wegung nach vorne aus.

Drei von sieben Probanden führten die Geste jeweils mit der gesamten Handfläche aus. Einer von drei Probanden hielt die Hand ruhig in der Luft, die Finger zeigten senkrecht nach oben, der Handrücken zur Testperson. Zwei von drei Probanden führten mit der Hand und dem Arm eine Bewegung nach vorne aus. Die Handinnenfläche zeigte nach vorne, die Finger nach oben.

Aufgrund der meisten Übereinstimmungen wurde folgende Geste für die Funktion „Na-vigation (Route) starten“ verwendet:

Page 22: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

22

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 13 Geste: Navigation (Route) stoppen

Navigation (Route) stoppen

Getestete Versuchspersonen: 7Bewegung vor/zurück: 3 VP von 7Bewegung oben/unten: 3 VP von 7Keine Bewegung: 1 VP von 7Verwendung der gesamten Hand: 6 VP von 7Verwendung einzelner Finger: 1 VP von 7

Sechs von sieben Versuchspersonen führten die Geste mit der Hand aus, eine von sie-ben Versuchspersonen nutzte die Finger zur Darstellung.

Zwei von den sechs Versuchspersonen, welche die Hand verwendeten, bewegten die-se von oben nach unten bzw. unten nach oben. Die Handinnenfläche wies dabei nach unten, die Finger waren ausgestreckt und nach vorne gerichtet. Die Bewegung erfolgte aus dem Handgelenk. Vier der sechs Testpersonen hielten die Hand mit dem Handrü-cken zu sich und den Fingern nach oben zeigend. Während ein Proband keine Bewe-gung ausführte, bewegten drei die Hand und den Arm nach vorne.

Eine Versuchsperson führte mit den nach vorne gerichteten Zeige- und Mittelfinger eine Tippbewegung nach unten aus.

Folgende Geste hatte die meisten Übereinstimmung und wurde daher für die Funktion „Navigation (Route) stoppen“ definiert:

Page 23: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

23

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 14 Geste: „Mein Zuhause“ wählen

„Mein Zuhause“ wählen (als Favorit gespeicherter Zielort)

Getestete Versuchspersonen: 7Verwendung der gesamten Hand: 1 VP von 7Verwendung einzelner Finger: 6 VP von 7

Sechs von sieben Versuchspersonen nutzten die Finger, jedoch führten sie damit unter-schiedliche Bewegungen aus. Eine Testperson zeigte die Geste mit der ganzen Hand-fläche.

Eine Versuchsperson „zeichnete“ mit dem nach unten gerichteten Zeigefinger einen Kreis in die Luft. Ein weiterer Proband „zeichnete“ ebenfalls einen Kreis. Allerdings war der Zeigefinger dabei nach vorne gerichtet

Ein Proband zeigte mit dem ausgestreckten Zeigefinger auf sich.

Eine Testperson führte mit Daumen und Zeigefinger eine „Schnippsbewegung“ aus.

Zwei Versuchspersonen bildeten eine Faust und streckten den Daumen senkrecht nach oben aus.

Eine Versuchsperson führte die flache Hand nach oben. Der Handrücken war dabei zum Probanden gerichtet.

Aufgrund der meisten Übereinstimmungen wurde nachfolgende abgebildete Geste für die Funktion „Mein Zuhause wählen“ festgelegt:

Page 24: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

24

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 15 Geste: Aus Karte zoomen

Aus Karte zoomen

Getestete Versuchspersonen: 7Bewegung vor/zurück: 3 VP von 7Keine Bewegung: 4 VP von 7Verwendung der gesamten Hand: 2 VP von 7Verwendung einzelner Finger: 5 VP von 7

Bei den fünf von sieben Testpersonen, welche die Finger verwendeten, konnte jeweils die gleiche Bewegung registriert werden. Die Hand war in der Anfangsposition geöffnet und während der Ausführung der Geste bewegten sich die Finger aufeinander zu, so dass sich in der Endposition die Fingerspitzen berührten. Lediglich die Anzahl der zu Hilfe genommenen Finger variierte zwischen den Probanden. Eine von fünf Versuchs-personen nutzte Daumen und Zeigefinger, drei von fünf Probanden verwendeten alle fünf Finger, und eine von fünf Testpersonen führte die Geste mit Daumen und Mittel-finger aus. Eine von fünf Versuchspersonen bewegte zusätzlich die Hand und den Arm nach vorne.

Zwei von sieben Versuchspersonen bewegten die Hand samt Arm auf sich zu. Der Un-terschied bestand darin, dass bei einem Proband der Handrücken nach oben und beim anderen nach unten zeigte.

Die hier abgebildete Geste hatte die meisten Übereinstimmungen und wurde deshalb für die Funktion „Aus Karte zoomen“ gewählt:

Page 25: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

25

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 16 Geste: In Karte zoomen

In Karte zoomen

Getestete Versuchspersonen: 7Verwendung der gesamten Hand: 1 VP von 7Verwendung einzelner Finger: 6 VP von 7

Ein Proband bewegte die Hand mit gespreizten Fingern nach vorne, dabei zeigte der Handrücken in Richtung Testperson.

In der Ausgangsposition berührten sich bei vier von sechs Probanden die Fingerspitzen, zwei von sechs Versuchspersonen zeigten eine Faust. In der Bewegung zur Endposition – geöffnete Hand - bewegten die sechs Probanden die Finger voneinander weg. Eine Versuchsperson nutzte dabei Zeigefinger und Daumen, vier von sechs Testpersonen jeweils alle Finger und ein Proband Zeige-, Mittelfinger und Daumen.

Bezüglich der Übereinstimmungen wurde folgende Geste für die Funktion „In Karte zoomen“ festgelegt:

Page 26: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

26

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 17 Geste: Karte drehen

Karte drehen (links/rechts)

Getestete Versuchspersonen: 7Drehung links/rechts: 7 VP von 7Verwendung der gesamten Hand: 5 VP von 7Verwendung einzelner Finger: 2 VP von 7

Bei der Ausführung dieser Funktion konnte eine hundertprozentige Übereinstimmung zwischen allen Probanden für die Bewegungen der Drehung beobachtet werden. Soll die Karte nach links gedreht werden führten alle Testpersonen eine Drehung nach links und für die Rechtsdrehung der Karte eine Drehung nach rechst aus.

Eine von Zwei Testpersonen drehte den senkrecht nach unten gerichteten Daumen und Zeigefinger entsprechend nach links bzw. rechts. Eine von zwei Versuchspersonen fuhr mit senkrecht nach oben gerichtetem Zeigefinger einen Bogen nach links bzw. nach rechts. Die Bewegung erfolgt aus dem Ellenbogengelenk, so dass der senkrecht nach oben gerichtete Unterarm die Bewegung mit ausführte.

Bei fünf von sieben Probanden wird die ganze Hand gedreht, die Bewegung erfolgt al-lerdings nur aus dem Handgelenk. Zwei von fünf Testpersonen bewegten die, mit dem Handrücken zu ihnen und den ausgestreckten nach oben zeigenden Fingern, flache Hand. Drei von fünf Versuchspersonen zeigten eine geöffnete Hand. Dabei zeigte der Handrücken zu Ihnen, die Finger waren gespreizt, und an den Mittelgelenken so ange-winkelt, dass sie waagrecht nach vorne zeigten.

Da für folgende Geste die meisten Übereinstimmungen festgestellt werden konnten, wurde sie für die Funktion „Karte drehen (links/rechts)“ definiert:

Page 27: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

27

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 18 Geste: Auf Nacht-/Tagfarben umschalten

Auf Nacht-/Tagfarben umschalten

Getestete Versuchspersonen: 7Drehung links/rechts: 2 VP von 7Bewegung oben/unten: 3 VP von 7Bewegung vor/zurück: 2 VP von 7Verwendung der gesamten Hand: 7 VP von 7

Einer von sieben Probanden hielt die geschlossen Faust neben sich um in den Nacht-farbenmodus zu wechseln. Um wieder auf die Tagfarben umzuschalten, öffnete er die geschlossen Faust (die Finger bewegten sich nach oben, der Daumen nach unten), so das alle Finger abgespreizt waren und senkrecht nach oben zeigten.

Zwei von sieben Testpersonen verwendeten die Drehung aus dem Handgelenk. Jedoch unterschieden sich die Richtung der Drehung und die mit der Hand dargestellte Geste.Einer von zwei Probanden drehte die Hand mit den nach vorne ausgestreckten Fingern so, dass die Handinnenfläche nach unten zeigte. Die Drehung nach rechts bedeutete Nachtfarben (Handinnenfläche oben), eine erneute Drehung nach links schaltete auf die Tagfarbenansicht zurück (Handinnenfläche unten). Eine von zwei Versuchsperso-nen hielt die Faust so, dass der ausgestreckte Daumen nach rechts und der Handrücken somit nach unten zeigte. Er drehte die Hand um 180 Grad nach links um auf die Nacht-farben umzuschalten (Daumen zeigt nun nach links). Eine weitere 180-Grad Drehung nach rechts führte zu der Tagfarbenansicht zurück.

Zwei von sieben Probanden hielten jeweils die Hand so, dass der Handrücken zu ihnen, und die ausgestreckten Finger senkrecht nach oben zeigten. Beide führten eine seitli-che Bewegung mit der Hand und dem Unterarm aus, die Bewegung erfolgte aus dem Ellenbogengelenk. Lediglich die Richtung der Geste unterschied sich. Eine von zwei Ver-suchspersonen wechselte mit der Bewegung nach links zu den Nachtfarben und nach rechts zu den Tagfarben. Bei dem anderen Probanden waren die Bewegungen für die Funktionen genau entgegengesetzt.

Zwei von sieben Probanden bewegten die Hand (ausgestreckte Finger zeigten nach vor-ne, die Handinnenfläche nach unten) und den Arm nach unten um auf die Nachtfarben-ansicht und nach oben um auf die Tagfarben umzuschalten.

Aufgrund der meisten Übereinstimmungen wurde folgende Geste für die Funktion „Tag-/Nachtfarben“ gewählt:

Page 28: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

28

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 19 Geste: Lautstärke regeln

Lautstärke regeln

Getestete Versuchspersonen: 7Drehung links/rechts: 3 VP von 7Bewegung oben/unten: 4 VP von 7Verwendung der gesamten Hand: 2 VP von 7Verwendung einzelner Finger: 5 VP von 7

Für die Lautstärkenregelung wurde von drei von sieben Versuchspersonen jeweils die Drehung der Hand aus dem Handgelenk genutzt. Die Linksdrehung steht für leiser, die Rechtsdrehung für lauter. Lediglich in der Haltung der Finger unterschieden sich die Testpersonen. Eine von diesen drei Versuchspersonen bildete eine Faust und streckte den Daumen aus, zwei von drei Probanden nutzten jeweils die nach vorne ausgestreck-ten Zeige- und Mittelfinger, sowie den Daumen.

Zwei von den vier Testperson, welche die Bewegung von oben nach unten bzw. un-ten nach oben nutzten, bewegten die flache Hand, mit den nach vorne ausgestreckten Fingern und den nach oben zeigenden Handrücken, sowie den Arm. Eine von vier Ver-suchspersonen führte die gleiche Bewegung aus, hatte allerdings nur den Zeigefinger waagrecht nach vorne ausgestreckt. Eine von vier Versuchspersonen nutzte auch den nach vorne ausgestreckten Zeigefinger – die Bewegung erfolgte hierbei Stufenweise und nur mit besagtem Finger. Bei allen vier Probanden bedeutete die Bewegung nach oben lauter und nach unten leiser.

Bei folgender Geste fanden sich die meisten Übereinstimmungen für die Funktion „Lautstärke regeln“, weshalb sie hierfür definiert wurde:

Page 29: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

29

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 20 Geste: Ton ausschalten

Ton ausschalten

Getestete Versuchspersonen: 7Bewegung links/rechts: 3 VP von 7Bewegung oben/unten: 2 VP von 7Bewegung vor/zurück: 1 VP von 7Kombination der Bewegungen: 1 VP von 7Verwendung der gesamten Hand: 3 VP von 7Verwendung einzelner Finger: 4 VP von 7

Drei von sieben Testpersonen nutzten die ganze Hand und vier von sieben Versuch-spersonen die Finger, wobei drei von diesen vier Probanden nur den Zeigefinger zur Ausführung der Geste gebrauchten.

Eine Versuchsperson führte eine Tippbewegung aus. Der Zeigefinger wurde leicht nach unten und leicht nach vorne bewegt, die Bewegung erfolgte aus dem Grundgelenk des Fingers. Eine ähnliche Geste zeigte ein weiterer Proband. Allerdings wurde der Zeige-finger nur nach unten bewegt. Auch war die Distanz der Bewegung größer als bei der anderen Versuchsperson.

Ein Proband „zeichnete“ mit ausgestrecktem Zeigefinger ein X in die Luft.

Bei einer Versuchsperson berührten sich die Fingerspitzen des nach vorne gerichteten Daumen, sowie Zeige- und Mittelfinger. Die Hand wurde nach vorne bewegt.

Drei von sieben Versuchspersonen verwendeten jeweils die Handfläche und eine Bewe-gung nach links bzw. rechts zur Darstellung der Geste. Bei einer von drei Testpersonen zeigte der Handrücken zu ihr, und die Finger senkrecht nach oben. Die Bewegungen mit der Hand und dem Arm erfolgte von rechts nach links, und wurde zweimal hintereinan-der ausgeführt. Zwei von drei Probanden hielten die Hand so, dass die Handinnenflä-che nach nach unten, und die Finger waagrecht nach vorne zeigten. Beide bewegten die Hand von links nach rechts. Eine von diesen Versuchspersonen führte im Gegensatz zur anderen die Bewegung zweimal hintereinander aus.

Folgende Geste wurde aufgrund der meisten Übereinstimmungen für die Funktion „Ton ausschalten“ gewählt. Die Bewegung erfolgt zweimal hintereinander:

Page 30: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

30

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 21 Geste: Ton einschalten

Ton einschalten

Getestete Versuchspersonen: 7Bewegung links/rechts: 2 VP von 7Bewegung oben/unten: 3 VP von 7Bewegung vor/zurück: 1 VP von 7Kombination der Bewegungen: 1 VP von 7Verwendung der gesamten Hand: 3 VP von 7Verwendung einzelner Finger: 4 VP von 7

Es war zu beobachten, dass zwei von sieben Versuchspersonen die gleiche, und drei von sieben Probanden die Gegenbewegung (in die entgegengesetzte Richtung) der Ges-te verwendeten, welche sie für die vorangegangene Funktion „Ton ausschalten“ wähl-ten. Zwei Versuchspersonen nutzten neue Gesten.

Eine Versuchsperson bewegte die flache Hand von unten nach oben, der Handrücken zeigte dabei nach unten.

Bei einer Testperson berührten sich die Fingerspitzen des nach vorne gerichteten Dau-men, sowie Zeige- und Mittelfinger. Die Hand wurde nach hinten bewegt.

Ein Proband führte eine Tippbewegung aus. Der Zeigefinger wurde leicht nach unten bewegt, die Bewegung erfolgte aus dem Grundgelenk des Fingers.

Eine Versuchsperson bewegte den ausgestreckten Zeigefinger von unten nach oben.

Ein Proband „zeichnete“ einen Haken in die Luft.

Zwei von sieben Versuchspersonen bewegten die Hand zweimal hintereinander von rechts nach links. Jedoch gab es einen Unterschied in der Haltung der Hand. Bei einer von zwei Testpersonen zeigte der Handrücken zu ihr und die Finger senkrecht nach oben, bei der weiteren Versuchsperson zeigte die Handinnenfläche nach unten und die Finger waagrecht nach vorne.

Für die Funktion „Ton einschalten“ wurde unten abgebildete Geste gewählt, da sie die Gegenbewegung zur vorangegangenen Funktion ist, und drei von sieben Versuchsper-sonen bei ihren Gesten die Gegenbewegung wählten.

Page 31: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

31

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 22 Geste: Menü der Navigation-App aufrufen

Menü der Navigations-App aufrufen

Getestete Versuchspersonen: 7Bewegung links/rechts: 3 VP von 7Bewegung vor/zurück: 1 VP von 7Bewegung oben/unten: 1 VP von 7Keine Bewegung: 1 VP von 7Kombination der Bewegungen: 1 VP von 7Verwendung der gesamten Hand: 5 VP von 7Verwendung einzelner Finger: 2 VP von 7

Eine Testperson zeigte in der Ausgangssituation eine geöffnete Hand. Sie schloss die Hand, so dass sich in der Endposition die Finger und der Daumen an der Fingerspitzen berühren.

Eine Versuchsperson „zeichnete“ mit dem ausgestrecktem Zeigefinger ein spiegelver-kehrtes „L“ in die Luft.

Zwei von den fünf Probanden, welche die ganze Hand nutzten, hielten jeweils die Flache Hand neben sich. Bei beiden zeigte der Handrücken zu ihnen und die Finger senkrecht nach oben. Während eine dieser zwei Versuchspersonen keine Bewegung ausführte, bewegte die andere die Hand nach vorne.

Drei von fünf Versuchspersonen bewegten die Hand und den Arm jeweils seitlich. Es gab allerdings Unterschiede in der Handhaltung und der Bewegungsrichtung. Einer von drei Probanden hielt die Hand senkrecht mit der Handinnenfläche nach rechts gedreht. Die Bewegung erfolgte von links nach rechts. Zwei von den drei Testpersonen führten die Bewegung von rechts nach links aus. Auch sie hielten die Hand senkrecht, jedoch war bei ihnen Handinnenfläche nach links gedreht.

Bei der Funktion „Menü der Navigations-App aufrufen“ gab es die meisten Übereinstim-mungen bei folgender Geste:

Page 32: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

32

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 23 Geste: Menü der Navigation-App schließen

Menü der Navigations-App schließen

Getestete Versuchspersonen: 7Bewegung links/rechts: 4 VP von 7Bewegung oben/unten: 3 VP von 7Verwendung der gesamten Hand: 5 VP von 7Verwendung einzelner Finger: 2 VP von 7

Vier von sieben Versuchspersonen nutzten sowohl die ganze Hand, wie auch die seitli-che Bewegung zur Darstellung der Geste. Lediglich bei der Haltung der Hand, sowie bei der Bewegungsrichtung gab es Unterschiede. Zwei von den vier Testperson bewegten die flache Hand von links nach rechts. Dabei waren jeweils die Finger waagrecht nach vorne ausgestreckt, und die Handinnenfläche nach unten gewendet. Bei zwei von vier Probanden war die Handinnenfläche jeweils nach links gedreht, und die Finger eben-falls nach vorne ausgestreckt. Sie führten die Bewegung von rechst nach links aus.

Eine Versuchsperson bewegte die flache Hand von oben nach unten. Die Bewegung erfolgte aus dem Ellenbogen. Die Handinnenfläche zeigte nach unten.

Ein Proband zeigte in der Ausgangssituation eine geöffnete Hand. Er schloss die Hand, so dass sich in der Endposition die Finger und der Daumen an der Fingerspitzen berüh-ren.

Bei einer Versuchsperson berührten sich die Fingerspitzen aller Finger und des Dau-men. Sie öffnete die Hand, so dass in in der Endposition eine geöffnete Hand zu sehen war.

Da bei nachfolgend abgebildeter Geste die meisten Übereinstimmung zu beobachten waren, wurde sie für die Funktion „Menü der Navigations-App schließen“ festgelegt:

Page 33: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

33

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 24 Geste: Im Navigationsapp-Menü scrollen

Im Navigationsapp-Menü scrollen (vertikale Anordnung der Menüpunkte)

Getestete Versuchspersonen: 7Bewegung oben/unten: 7 VP von 7Verwendung der gesamten Hand: 2 VP von 7Verwendung einzelner Finger: 5 VP von 7

Sieben Probanden führten die Bewegung von unten nach oben bzw. oben nach unten aus. Dabei bedeutete bei allen die Bewegung nach oben „nach oben scrollen“, und die Bewegung nach unten „nach unten scrollen“.

Einer von sieben Probanden bewegte die jeweils nach vorne zeigenden Zeige- und Mit-telfinger.

Zwei von sieben Testpersonen verwendeten die ganze Hand. Dabei zeigte die Handin-nenfläche nach unten, und die Finger waagrecht nach vorne.

Vier von sieben Versuchspersonen nutzten für die Geste jeweils ihren nach vorne zei-genden Zeigefinger.

Bei vier von sieben Probanden erfolgte die Bewegung aus dem Handgelenk.Bei einer von drei Versuchspersonen, welche die Bewegung nicht aus dem Handgelenk ausführten, bewegte sich die Hand und der Arm. Bei zwei von drei Testpersonen fand die Bewegung im Grundgelenk der Finger satt.

Da bei folgender Geste die meisten Übereinstimmungen festgestellt werden konnten, wurde sie für die Funktion „Im Naviagtionsapp-Menü scrollen“ festgelegt:

Page 34: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

34

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 25 Geste: Menüpunkt auswählen

Menüpunkt auswählen

Getestete Versuchspersonen: 7Bewegung vor/zurück: 7 Vp von 7Verwendung der gesamten Hand: 2 VP von 7Verwendung einzelner Finger: 5 VP von 7

Sieben Probanden führten die Bewegung nach vorne aus.

Einer von sieben Probanden verwendete den waagrecht nach vorne ausgestreckten Zeige- und Mittelfinger.

Zwei von sieben Versuchspersonen nutzen die ganze Hand. Der Handrücken zeigte da-bei zu ihnen, die Finger senkrecht nach oben.

Vier von sieben Testpersonen nutzen jeweils den waagrecht nach vorne ausgestreckten Zeigefinger.

Aufgrund der meisten Übereinstimmungen wurde diese Geste für die Funktion „Menü-punkt auswählen“ gewählt:

Page 35: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

35

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 26 Geste: Hilfe aufrufen

Hilfe aufrufen

Getestete Versuchspersonen: 7Verwendung der gesamten Hand: 5 VP von 7Verwendung einzelner Finger: 2 VP von 7

Drei von sieben Versuchspersonen verwendeten zur Ausführung der Geste die flache Hand. Dabei zeigte die Handinnenfläche nach unten und die Finger waagrecht vom Probanden weg. Der Arm wurde leicht nach unten bewegt und gleichzeitig nach rechts geklappt, so dass die die Handinnenfläche nach oben zeigte.

Eine Testperson führte die Hand seitlich nach rechts oben. Die Handinnefläche zeigte nach vorne, die Finger nach oben.

Ein Proband bildete eine Faust. Der ausgestreckte Daumen zeigte senkrecht nach un-ten.

Eine Versuchsperson winkte, um die Funktion auszuführen. Die Handinnenfläche der flachen Hand zeigte dabei nach vorne.

Ein Proband zeichnete mit ausgestrecktem Zeigefinger ein Fragezeichen in die Luft.

Aufgrund der meisten Übereinstimmungen wurde folgenden Geste für die Funktion „Hilfe aufrufen“ gewählt:

Page 36: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

36

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

GestensetAusgehend von den Ergebnissen der Designstudie, konnte für die Steuerung der fikti-ven Navigationsanwendung folgendes finales Gestenset ermittelt werden. Die hier auf-gelisteten und abgebildeten Gesten wiesen die meisten Übereinstimmungen bei den Versuchspersonen auf (siehe dazu auch die vorangegangene Ergebnisauswertung). Alle Gesten werden mit der rechten Hand ausgeführt.

Hauptmenü öffnen (aktuelle Anwendung beenden)

Die flache Hand (Handinnenfläche zeigt nach unten) wird am Handgelenk nach unten bewegt.

Scrollen horizontales Menü Die senkrechte (Handinnenfläche nach links) flache Hand wird nach links oder rechts bewegt.

Scrollen vertikales Menü Der ausgestreckte Zeigefinger wird hoch oder runter bewegt.

Menüpunkt wählen (horizontales Menü) Die flache Hand (Handinnenfläche zeigt nach vorne) wird vor und leicht nach unten bewegt.

Menüpunkt wählen (vertikales Menü) Die Hand mit ausgestrecktem Zeigefinger wird nach vorne bewegt.

Navigation (Route starten/stoppen) Die flache Hand (Handinnenfläche zeigt nach vorne) wird nach vorne bewegt.

Einzoomen Finger und Daumen berühren sich an den Spitzen. Die Hand wird geöffnet, alle Finger sind ausgestreckt.

Auszoomen Alle Finger sind ausgestreckt. Hand wird ge-schlossen, Finger und Daumen berühren sich an den Spitzen.

Karte drehen Die Hand wird im Gelenk nach links bzw. rechts gedreht. Finger umgreifen einen imagi-nären Knopf.

Lautstärke Die Hand mit nach vorne ausgestrecktem Zeigefinger wird hoch (laut) und runter (leise) bewegt.

Ton ausschalten Die flache Hand (Handinnenfläche nach un-ten) wird zweimal nach rechts bewegt.

Ton einschalten Die flache Hand (Handinnenfläche nach un-ten) wird nach links bewegt.

Navigationsmenü aufrufen Die flache Hand (Handinnenfläche nach links) wird nach links bewegt.

Navigationsmenü schließen Die flache Hand (Handinnenfläche nach un-ten) wird nach rechts bewegt.

„Mein Zuhause“ wählen Faust mit ausgestrecktem, nach oben zeigen-den Daumen.

Hilfemenü öffnen Die flache Hand (Handinnenfläche nach un-ten) wir nach rechts „umgeklappt“, so dass die Handinnenfläche nach oben zeigt.

Tag-/Nachtfarben Die flache Hand (Handinnenfläche nach unten) wird hoch (Tagfarben) und runter (Nachtfarben) bewegt.

Tab. 2 Zusammenfassung des Gestensets

Page 37: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

37

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Hauptmenü öffnen (aktuelle Anwendung beenden)

Scrollen (horizontales Menü)

Menüpunkt wählen(horizontales Menü)

Navigation (Route) starten/stoppen

„Mein Zuhause“

AuszoomenEinzoomen Karte drehen (links/rechts)

Tag-/Nachtfarben

LautstärkeTon ausschalten Ton einschalten

Navigationsmenü aufrufen Navigationsmenü schließen

Scrollen (vertikales Menü)

Menüpunkt wählen(vertikales Menü)

Hilfemenü öffnen

Abb. 27 Gestenset

Page 38: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

38

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

3.3 Diskussion

Die Designstudie hat ergeben, dass so gut wie alle Probanden auf komplizierte Gesten, bei welchen die verschiedenen Finger in unterschiedlichen Stellungen verwendet wer-den, verzichtet haben. Vielmehr nutzten die Testpersonen die ganze Hand, alle Finger oder Zeige- und Mittelfinger. In einigen Fällen kam der Daumen zum Einsatz. Auf Nach-frage gaben die Probanden an, dass die Verwendung der ganzen Hand oder nur eines bzw. zweier Finger einfacher und intuitiver sei. Des Weiteren sei es zu schwierig, sich „komplexere“ Gesten, bei denen mehrere Finger in unterschiedlicher Stellung benötigt werden, merken zu können. Vier der sieben Testpersonen erklärten, für kompliziertere Gesten müssten sie sich verstärkt auf deren Ausführung konzentrieren, und wären da-durch vermutlich von ihrer eigentlichen Aufgabe, dem Führen des Automobils, zu sehr abgelenkt. Dies erachteten sie als nicht zielführend.

Während der Befragung waren von ein paar wenigen Versuchspersonen neue und in-novative Gesten zu sehen, wie z.B. das „Auf-Sich-Zeigen“, um die Heimatadresse im Navigationsgerät auszuwählen. Dennoch war überwiegend zu beobachten, dass vie-le der von den Probanden dargestellten Gesten stark an die erinnerten, welche von Smartphones – z.B. das das Zoomen mit zwei Fingern – oder aus Filmen wie „Minority Report“ bzw. aus Anwendungen, welche mit der Microsoft Kinect gesteuert werden kön-nen – z.B. das Weiterschalten mit der „Swipe-Bewegung“ - bekannt sind. Auf Nachfrage bestätigten die Testpersonen, durch die bereits bekannten Gesten beeinflusst zu sein. Weiterhin fällt auf, dass viele der einfacheren Gesten, wie z.B. den Arm und die Hand nach links oder rechts, oder hoch bzw. runter zu bewegen, gewisse Ähnlichkeiten mit den Gesten aufweisen, welche in den in Kapitel 2 vorgestellten Prototypen und Studien Verwendung finden (vergleiche hierzu auch Abb. 28 und Abb. 29). Dies lässt sich damit begründen, dass vermutlich diese Art von Gesten für den Großteil von Anwendern am intuitivsten sind.

Bild oben links:Musik starten

Bild oben rechts:Song weiterschalten

Bild unten links:Menü nach links schieben

Bild unten rechts:Menü wechseln

Abb. 28 Steuerung des Mediaplayers6

Abb. 29 Steuerung des Boardcomputers7

6) Bildquelle: http://www.youtube.com/watch?v=oPxn_71SSG0 (Screenshots)7) Bildquelle: http://www.youtube.com/watch?v=hcqsHAoWW9Y (Screenshots)

Page 39: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

39

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Auffällig war, dass die Versuchspersonen für Funktionen, wie z.B im Menü scrollen, oder die Lautstärke regulieren, schnell und intuitiv eine Geste zeigten, da sie diese Funktio-nen und die dazu passenden Gesten bereits aus anderen Anwendungen kannten. Dies bestätigt die im vorangegangenen Abstatz beschriebene Beeinflussung der Probanden. Kamen in der Befragung neue Funktionen, die den Testpersonen weniger geläufig wa-ren, oder für die sie keine Gestensteuerung kannten, wie z.B. Hilfemenü aufrufen, oder Heimatadresse wählen, taten sie sich schwer, eine geeignete, und für sie intuitive Geste zu finden. Hier benötigten sie für die Überlegung zur Geste mehr Zeit.

Je weiter die Befragung der Probanden fortgeschritten war, d.h. je mehr Funktionen sie bereits mit einer Geste belegt hatten, desto ideenloser wurden einige von ihnen. Die Versuchspersonen mussten länger überlegen um auf weitere neue Gesten zu kommen. Auch unterschieden sich die Gesten in ihrem Bewegungsablauf nur minimal von be-reits gezeigten. Eine geringe Varianz in der Unterschiedlichkeit der Gesten, könnte bei einer möglichen Implementierung in ein Gestenerkennungssystem zu Problemen beim Tracking führen. D.h. Gesten die sich nur gering unterscheiden, könnten als die selbe erkannt werden.

Für gegenläufige Funktionen wie z.B. an und aus, oder laut und leise, wählte die Mehr-heit der Versuchspersonen die gleiche Geste. Entweder stimmten die Gesten sowohl in Hand- und Fingerstellung sowie der Bewegung überein, oder die Hand- und Fingerstel-lung blieb gleich und nur die Bewegung war entgegengesetzt. Nur wenige Probanden wählten für die gegenläufigen Funktionen komplett unterschiedliche Gesten.

Bei den beiden Funktionen „im Menü scrollen“ war zu beobachten, dass die Versuch-spersonen bei der vertikalen Menüanordnung ausschließlich Gesten in der vertikalen Ebene verwendeten, und bei der horizontalen Anordnung ausschließlich Gesten in der horizontalen Ebene. Dies deckt sich mit den Erkenntnissen aus der Arbeit von Dipl.-Ing. Michael Geiger [17].

Gesten, welche aus dem Alltag bekannt sind, wurden von vielen Testpersonen für Funk-tionen wie z.B. starten und stoppen oder laut und leise, gewählt. Für die Funktion laut und leise hielten deshalb viele Probanden ihre Finger so, als würden sie einen imagi-nären Lautstärkenregler umgreifen, und bewegten die Hand entsprechend links und rechts, wie es von einer gängigen Steroanlage bekannt ist. Bei den Funktionen starten und stoppen wählten die meisten Versuchspersonen die sogenannte „Pushgeste“, die dem Drücken eines Knopfes oder Schalters entspricht.

Unter den Testpersonen befand sich eine Linkshänderin. Wie alle sechs weiteren Pro-banden nutzte sie ebenfalls die rechte Hand zur Ausführung der Gesten. Dies wurde dadurch begründet, dass sie es vom Autofahren gewohnt sei, mit der rechten Hand Schalter und Knöpfe in der Mittelkonsole des Autocockpits zu bedienen. Auch sei der Platz links neben dem Lenkrad nicht ausreichend, da Bewegungen nach links von der Seitenwand des Autos behindert und eingeschränkt werden könnten.

Page 40: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

40

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Im Nachgespräch wurden die Probanden gefragt, ob sie es sich vorstellen könnten, die Zieladresse einer Route im Navigationssystem via Gesten einzugeben. Zwei der Test-personen verneinten dies. Die anderen fünf würden die benötigten Buchstaben in die Luft zeichnen, fänden dies allerdings zu umständlich, kompliziert und langwierig, und würden deshalb eine Eingabe mit Hilfe einer Tastatur oder per Sprachsteuerung bevor-zugen.

Des Weiteren wurden die Probanden gefragt, ob es für sie einfacher wäre, für die Funk-tionen Gesten zu finden, wenn sie beide Hände zur Verfügung hätten, zum Beispiel als Beifahrer. Keiner der Testpersonen würde eine Steuerung mit beiden Händen bevor-zugen, da dies laut ihren Aussagen nicht nötig sei – eine Hand sei vollkommen ausrei-chend. Diese Erkenntnis deckt sich auch mit den Ergebnissen der Studie von Jacob O. Wobbrock, Meredith Ringel Morris und Andrew D. Wilson [15].

Durch die Verwendung von zwei Händen stünden zwar mehr unterschiedliche Gesten und Kombinationsmöglichkeiten für mehr Funktionen zur Verfügung, was allerdings zu kompliziert sei um sich alle zu merken. Eine der Testpersonen gab zudem an, es würde sie als Fahrer ablenken, wenn der Beifahrer mit beiden Armen und Händen Gesten aus-führt um Funktionen aufzurufen.

Alle Versuchspersonen bejaten die Frage, ob sie sich eine Gestensteuerung im Auto vorstellen könnten. Sie würden diese auch nutzen, allerdings nicht für alle Funktionen, sondern nur für einige ausgewählte, die oft gebraucht werden und schnell ausgeführt werden können, wie z.B. Radio oder Licht an- und ausschalten. Auch für das Navigati-onssystem konnten sich alle Probanden die Gestensteuerung vorstellen. Jedoch eben-falls nur für wenige Funktionen. Der allgemeine Konsens bestand darin, dass wenn man alle Funktionen im Auto via Geste ansteuern könnte, es definitiv zu komplex wäre sich diese zu merken. Darunter würde die Anwenderfreundlichkeit leiden. Einige Proban-den (drei von sieben) würden die Sprachsteuerung als Hauptsteuerung favorisieren, die Gestensteuerung als Unterstützung sinnvoll finden und auch verwenden.

Interessant ist, dass das unterschiedliche Vorwissen in Bezug auf den Umgang mit Na-vigationssystemen keinen nennenswerten Unterschied bei den gezeigten Gesten der Probanden ergab.

Sowohl Alter als auch das Geschlecht der Probanden hatte keinen Einfluss auf die Er-gebnisse der Studie.

Page 41: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

41

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

4. Validierungsstudie

Um bewerten zu können, ob die Gesten welche mittels des User-Driven-Design ermit-telt wurden oder die selbst definierten Gesten für Anwender intuitiver, logischer, ange-nehmer und leichter zu merken sind, wurde eine Valdierungsstudie durchgeführt. Ein Bewertungskriterium stellte die benötigte Zeit pro ausgeführter Geste dar. Die in der Studie für die Überprüfung relevanten Funktionen waren Kartenansicht ein- und aus-zoomen, Karte nach links und rechts drehen, Navigation starten und stoppen, und auf Nacht- und Tagfarben umschalten. Mit Hilfe eines Fragebogens konnte eine subjektive Auswertung erfolgen. Für die objektive Bewertung der Gesten wurde ein Prototyp ent-wickelt, in welchen die bereits erwähnten vier Funktionen implementiert waren.

4.1 Technik und Prototyp

Unity Game Engine Als Entwicklungsumgebung für den Prototypen wurde die Game-Engine „Unity“ von Unity Technologies gewählt [18]. Mit Hilfe der Engine lassen sich interaktive 2D- und 3D-Anwendungen u.a. für folgende Zielplattformen entwickeln: Windows, Mac OS X, Linux, Nintendo Wii, Xbox 360, PlayStation 3, iOS, Android, BalckBerry 10, Windows Pho-ne 8, Firefox, Safari, Chrome, Internet Explorer und Opera [19]. Der Schwerpunkt von Unity liegt in der Erstellung von 3D-Anwendungen. Es lassen sich problemlos 3D-Mo-delle, welche zum Beispiel mit der Software Maya oder 3ds Max erstellt wurden - bei-de von der Firma Autodesk - einbinden und mit Hilfe von Skripten ansprechen. Auch das Einbinden von Sensoren zur Erfassung von Bewegungen, wie z.B. der Leap Motion oder der Microsoft Kinect, ist nahezu problemlos möglich. Dies war einer der Gründe, weshalb die Entscheidung auf Unity als Entwicklungsumgebung für den Prototypen ge-fallen ist. In Unity werden die Programmiersprachen C++, C# und Boo unterstützt. Für die Entwicklung des Prototypen wurde die kostenlose Variante in der Version 4.1.2f1 verwendet, da darin alle nötigen Funktionen enthalten waren und somit auf die kosten-pflichtige Version verzichtet werden konnte.

Leap Motion SensorDie Leap Motion ist ein ca. acht cm langer und drei cm breiter Sensor der Firma Leap Motion, Inc., mit dessen Hilfe die Bewegungen und die Positionen der Hände und Fin-ger im 3D-Raum erfasst werden können. Dies geschieht mit Hilfe von CMOS-Sensoren und drei LEDs, welche Licht im Infrarotspektrum aussenden [20]. In dem Appstore mit dem Namen „Airspace“ von Leap Motion, Inc. werden verschiedene Anwendungen und Spiele angeboten, die sich alleine durch Handgesten steuern lassen. Der Leap Motion Sensor ist relativ neu und seit Sommer 2013 frei erhältlich.

Page 42: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

42

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Während die Kinect von Microsoft, welche auf einem ähnlichem Prinzip basiert, nur Körperbewegungen und die der Gliedmaßen registrieren kann, ist es mit dem Leap Mo-tion Sensor nun möglich, auch kleinste Bewegungen der Finger zu erfassen. Aus diesem Grund wurde entschieden, den Prototyp mit dieser Hardware umzusetzen, da es für die Validierungsstudie notwendig ist, auch Handgesten und verschiedene Fingerstellungen und -bewegungen zu erfassen.

Überprüfung der ermittelten Gesten nach ErfassbarkeitDie in der Designstudie ermittelten und für die Validierung relevanten vier Gesten wur-den mit Hilfe des Leap Motion Visualizers, welcher mit der Software der Leap Motion mitgeliefert wird, auf ihre Erfassbarkeit durch den Sensor überprüft. Hält man die Hän-de in den Erfassungsbereich des Sensors, werden diese und jeweils alle fünf Finger skelettartig dargestellt (siehe Abb. 31). Damit konnte vorab schnell und einfach über-prüft werden, ob die Gesten sich in dem Prototypen umsetzen lassen, oder ob sie ab-gewandelt werden müssen.

Nach der Überprüfung gab es bei den für den Prototypen relevanten Gesten, welche mit Hilfe der Designstudie ermittelt wurden, folgenden Änderungen:

• Funktion Zoomen Anstelle von allen Fingern werden für die Funktionen Ein- und Auszoomen nur Daumen und Zeigefinger genutzt, da es Probleme gibt alle Finger bei der Bewe-gung zu erfassen und es so zu Unstimmigkeiten bei der Ausführung der Geste

kommen kann.

Abb. 31 Leap Motion Visualizer

Abb. 30 Leap Motion Controller

Page 43: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

43

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

PrototypDer Prototyp wurde mit der Unity Game Enginee und dem Leap Motion Controller, der mit Hilfe des SDK in Unity eingebunden werden konnte, in der Programmiersprache C# umgesetzt. Dank des Sensors konnten die aktuellen Positionen der Fingerspitzen aller fünf Finger, sowie der Hand, im 3D-Raum ausgelesen werden. So standen neben den X-, Y-, und Z-Koordinaten der Finger und der Hand auch die Werte der Neigung der Hand nach oben und unten, nach links und rechts, sowie die der Drehung nach links und rechts zur Verfügung.

Mit den oben genannten Werten wurden die für die Gesten relevanten Funktionen de-finiert. Ändert sich beispielsweise der Y-Wert der Hand in einer bestimmten Zeit, wird die Kartenansicht von den Tag- auf die Nachtfarben umgeschalten. Ein weiteres Beispiel ist der Abstandsvektor zwischen Daumen und Zeigefinger. Je nachdem wie sich dessen Betrag verändert, ändert sich die Zoomstufe der Karte. Wird der Betrag größer, wird die Karte größer, verkleinert sich der Betrag, verkleinert sich die Kartenansicht.

In dem Prototyp wurde ein Timer integriert, der startet, sobald der Anwender seine Hand in den für die Gesten relevanten Erfassungsbereich des Sensors bewegt. Hat der User die Geste vollständig und richtig ausgeführt, stoppt der Timer. Somit konnte für jede einzelne Testperson die benötigte Zeit für die Gestenausführung unter gleichen Bedingungen gemessen werden. Des Weiteren wurde in Unity eine vereinfachte Dar-stellung einer Kartenansicht eingebunden, welche z.B, mit Hilfe der festgelegten Gesten gedreht oder gezoomt werden konnte. Dadurch war garantiert, dass die Testpersonen ein unmittelbares Feedback auf ihre Aktionen bekamen und somit feststellen konnten, ob die Ausführunfg der Geste erfolgreich war.

Abb. 32 Prototyp

Page 44: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

44

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Zoomen

Karte drehen (links/rechts)Tag-/Nachtfarben

Um die in der Designstudie ermittelten Gesten mit den definierten Gesten in der Vali-dierungsstudie miteinander vergleichen zu können, wurden beide Gestensets im Pro-totypen umgesetzt.

Gestenset 1 (ermittelte Gesten aus der Designstudie)

Navigation (Route starten/stoppen) Die flache Hand (Handinnenfläche zeigt nach vorne) wird nach vorne bewegt.

Zoomen Auszoomen: Daumen und Zeigefinger werden aufeinander zu bewegt.Einzoomen: Daumen und Zeigefinger werden voneinander weg bewegt.

Karte drehen Die Hand wird im Gelenk nach links bzw. rechts gedreht. Finger umgreifen einen imagi-nären Knopf.

Tag-/Nachtfarben Die flache Hand (Handinnenfläche nach unten) wird hoch (Tagfarben) und runter (Nachtfarben) bewegt.

Navigation (Route) starten/stoppen

Tab. 3 Zusammenfassung des Gestenset 1

Abb. 33 Gestenset 1

Page 45: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

45

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Gestenset 2 (definierte Gesten)

Navigation (Route starten/stoppen) Bei der flachen Hand (Handinnenfläche zeigt nach unten) liegen alle Finger an: stoppenDaumen wird im 90 Grad Winkel nach links bewegt: starten

Zoomen Die flache Hand (Handinnenfläche nach un-ten) wird nach vorne (auszoomen) und nach hinten (einzoomen) bewegt.

Karte drehen Die flache Hand (Handinnenfläche nach un-ten) wird nach links bzw. rechts gedreht.

Tag-/Nachtfarben Hand öffnen: TagfarbenHand schließen (Faust): Nachtfarben

Zoomen

Karte drehen (links/rechts) Tag-/Nachtfarben

Navigation (Route) starten/stoppen

Tab. 4 Zusammenfassung des Gestenset 2

Abb. 34 Gestenset 2

Page 46: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

46

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

4.2 Aufbau und Ablauf der Studie

AufbauWie bereits die Designstudie, fand auch die Validierungsstudie in einem geschlossenen, Raum statt, um die Versuchspersonen vor der Ablenkung von äußeren Umwelteinflüs-sen zu bewahren, und einen ungestörten Ablauf der Studie zu garantieren. Um eine Anwendung der Gesten im Auto zu simulieren, wurde wie auch in der Designstudie ein Lenkrad auf dem Tisch platziert. Vor dem Tisch wiederum befand sich ein Stuhl, welcher den Fahrersitz im Auto darstellte. Hinter dem Lenkrad wurde ein Bildschirm für die visu-elle Ausgabe des Prototyps positioniert. Die Testpersonen erhielten dadurch Feedback, ob die ausgeführten Gesten vom System erkannt wurden und die gewünschte Funktion ausgelöst wurde. Rechts neben dem Lenkrad war der Sensor für die Gestenerfassung platziert.

Die Befragung jedes einzelnen Probanden wurde zur besseren Auswertung mit einer Kamera aufgezeichnet. Diese war so platziert, dass die Ausführung der Gesten von vor-ne und schräg oben aufgenommen werden konnte (siehe auch Abb. 35). Neben der Videoaufnahme fand auch eine Tonaufzeichnung statt.

Kamera

Lenkrad

Stuhl

Erfassungs-bereich für die Gesten

/ Sensor

Bildschirm

Abb. 35 Aufbau der Validierungsstudie

Page 47: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

47

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

VersuchspersonenEs wurden neun Versuchspersonen im Alter zwischen 22 und 57 Jahren für die Validie-rung befragt. Die Probanden hatten in Bezug auf die Handhabung mit Gestensteuerun-gen und Navigationssystemen unterschiedliche Kenntnisse und Vorwissen.

Die für die Validierungsstudie eingeladenen Personengruppe setzte sich wie folgt zu-sammen:Anzahl der Probanden 9, davon 4 Frauen und 5 MännerAltersspanne 22 bis 57 JahreDurchschnittsalter 32,1 JahreAnzahl Rechtshänder 9Anzahl Linkshänder 0Erfahrung mit Navigations-systemen

9

Erfahrung mit Gestensteu-erung

8

Mit Touch-Steuerung 8Mit berührungsloser Ges-tensteuerung

6

Für jede Versuchsperson war eine Stunde für die Befragung vorgesehen. Wie bereits in der Designstudie, fand diese nacheinander statt, um einer gegenseitigen Beeinflussung der Probanden entgegenzuwirken.

AblaufDer Ablauf der Validierungsstudie wurde in Vorgespräch, Test mit dem Prototyp und Nachbesprechung untergliedert (siehe Abb. 36).

Vorgespräch

Test mit Prototyp

Nachbesprechung

Aufgabe / Funktion

Ausführung G1 / G2

Visuelles Feedback

Abb. 36 Ablauf der Validierungsstudie

Tab. 5 Zusammensetzung der Versuchspersonen der Validierungsstudie

Page 48: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

48

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

VorgesprächDen Probanden wurde zu Beginn der Befragung der genau Ablauf der Validierungsstu-die, sowie die Absicht der hier vorliegenden Arbeit erläutert.

Des Weiteren wurden den Studienteilnehmern die beiden Gestensets für die Funktio-nen vorgestellt und erklärt. Die Probanden wurden darauf hingewiesen, vor dem Lenk-rad platz zu nehmen, und dieses mit beiden Händen zu umgreifen, um eine vergleich-bare Situation zur tatsächlichen Autofahrt herzustellen. Nach dem Stellen der Aufgabe durch den Versuchsleiter sollten die Versuchspersonen die Gesten in dem rechts neben dem Lenkrad vorgesehen Bereich über dem Sensor ausführen. Dafür durfte jeweils der rechte Arm, sowie die rechte Hand verwendet werden. Des Weiteren standen alle drei Richtung - oben und unten, links und rechts, vor und zuück - im 3D-raum für die Aus-führung der Geste zur Verfügung.

Test mit PrototypDie Versuchspersonen wurden, für sie nicht erkennbar, in eine Vierer- und eine Fünfer-gruppe eingeteilt. Dies hatte zum Zweck, dass die Gruppen die Aufgaben in einer unter-schiedlichen Reihenfolge absolvierten. Dadurch wurde erreicht, dass die Ergebnisse für die einzelnen Gesten nicht verfälscht wurden, was bei einer gleichen Reihenfolge hätte passieren können, da der Proband in der Ausführung von der vorangegangen Geste beeinflusst war. Auch für die Aufgabe Karte zoomen und drehen gleichzeitig, war für die zwei Gruppen jeweils eine andere Zoomstufe und Rotation vorgesehen.

Jeder Proband wurde gebeten, folgende Aufgaben mit der jeweils dazugehörigen Geste, sowohl aus Gestenset 1, wie aus Gestenset 2 zu lösen: Kartenansicht drehen (links und rechts), ein- und auszoomen, Navigation starten und stoppen, auf Nacht- und Tagfar-ben umschalten, sowie gleichzeitig zoomen und drehen. Haben die Probanden mit der Hand den Erfassungsbereich des Sensors erreicht, wurde die Zeitnahme gestartet und gestoppt, sobald die Aufgabe erfolgreich ausgeführt wurde. Jede Geste musste viermal dargestellt werden, um einen Durchschnitt für die benötigte Zeit errechnen zu können.

Für die Zoom- und Drehfunktion im Test wurde auf dem Bildschirm ein Rahmen einge-blendet, dessen Rotation und Größe vom Versuchsleiter eingestellt werden konnte. Bei den drei Aufgaben Drehen, Zoomen, und Drehen und Zoomen gleichzeitig, wurden die Versuchspersonen gebeten, die Karte in den Rahmen einzupassen (siehe Abb. 37 und Abb. 38). Somit galten für jede Testperson die gleichen Bedingungen und eine Verfäl-schung der Ergebnisse konnte vermieden werden.

Für die Aufgabe Tag- und Nachtfarben umschalten änderte sich nach richtiger Ausfüh-rung entsprechend die Helligkeit der Karte auf dem Bildschirm (siehe Abb. 39). Bei der Funktion Navigation starten und stoppen wurde für Start ein „Playsymbol“ eingeblen-det und bei Stopp ausgeblendet (siehe Abb. 40). So erhielt die Versuchsperson Feed-back darüber, ob sie die Geste richtig ausgeführt hatte.

Page 49: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

49

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Abb. 37 Karte zoomen

Abb. 38 Karte drehen

Abb. 39 Tag-/Nachtfarben

Abb. 40 Navigation starten/stoppen

Page 50: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

50

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Nach der Zeitnahme wurde den Probanden nochmals die Aufgabe gestellt, die Karten-ansicht zu drehen, zu zoomen, auf Nacht- und Tagfarben umszuschalten, und die Navi-gation zu starten und zu stoppen. Dadurch konnte objektiv überprüft werden, welche Geste für die jeweilige Funktion von den Testpersonen intuitiv gewählt wurde.

NachbesprechungWährend der Nachbesprechung wurden die Probanden gebeten, mittels einer Skala von -2 bis 2 (der negative Zahlenbereich stand für Geste 1, der positive für Geste 2, 0 für unentschieden) für jede Funktion zu bewerten (siehe Abb. 41), welche der bei-den Gesten für sie persönlich intuitiver, angenehmer, logischer, leichter zu merken, genauer, sicherer (weniger ablenkend) und effektiver war. Außerdem konnten die Ver-suchsteilnehmer sonstige Anmerkung zu den Gesten anbringen. Zu ihren Erfahrungen im Bereich Gestensteuerung und Navigationssysteme, sowie zu ihrem Alter wurde die Probanden ebenfalls befragt.

Geste 1 Funktion Zoomen Geste 2

intuitiver

-2 -1 0 1 2

angenehmer

-2 -1 0 1 2

logischer

-2 -1 0 1 2

leichter zu merken

-2 -1 0 1 2

genauer

-2 -1 0 1 2

sicherer / lenkt weniger ab

-2 -1 0 1 2

effektiver

-2 -1 0 1 2

4.3 Ergebnisse

Aus den vier gemessen Zeiten pro Geste und pro Proband wurde der Mittelwert ge-bildet. Aus allen Mittelwerten pro Geste wurde erneut der Mittelwert ausgerechnet. So konnte die durchschnittliche Dauer jeder Geste errechnet werden. Anhand dieses Wertes ließen sich die Gesten aus Set 1 und Set 2 miteinander vergleichen. Des Wei-teren wurde aus den Durschnittszeiten der einzelnen Versuchspersonen die Standar-tabweichung pro Geste berechnet. Für die subjektiven Bewertungen der Testperson bezügliche der einzelnen Gesten wurde ausgehend von der Bewertungsskala ebenfalls der Mittelwert und die Standartabweichung ausgerechnet, um eine Grundlage für den Vergleich der Gesten aus den beiden Gestensets zu erhalten. Auf den folgenden Seiten können die detaillierten Ergebnisse der Validierungsstudie eingesehen werden.

Abb. 41 Beispiel Fragebogen

Page 51: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

51

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Funktion Tag-/Nachtmodus

Auf Nachtfarben umschalten:Geste 1 Geste 2

Versuchsperson 1 0,42 Sekunden 0,47 Sekunden

Versuchsperson 2 0,34 Sekunden 0,33 Sekunden

Versuchsperson 3 0,56 Sekunden 0,49 Sekunden

Versuchsperson 4 0,64 Sekunden 0,56 Sekunden

Versuchsperson 5 0,37 Sekunden 0,34 Sekunden

Versuchsperson 6 0,58 Sekunden 0,50 Sekunden

Versuchsperson 7 0,28 Sekunden 0,41 Sekunden

Versuchsperson 8 0,61 Sekunden 0,57 Sekunden

Versuchsperson 9 0,63 Sekunden 0,43 Sekunden

Benötigte Zeit im Durchschnitt:

0,49 Sekunden 0,46 Sekunden

Standardabweichung: 0,14 Sekunden 0,09 Sekunden

Auf Tagfarben umschalten:Geste 1 Geste2

Versuchsperson 1 0,36 Sekunden 0,33 Sekunden

Versuchsperson 2 0,33 Sekunden 0,36 Sekunden

Versuchsperson 3 0,35 Sekunden 0,32 Sekunden

Versuchsperson 4 0,33 Sekunden 0,33 Sekunden

Versuchsperson 5 0,19 Sekunden 0,23 Sekunden

Versuchsperson 6 0,38 Sekunden 0,35 Sekunden

Versuchsperson 7 0,23 Sekunden 0,46 Sekunden

Versuchsperson 8 0,40 Sekunden 0,33 Sekunden

Versuchsperson 9 0,26 Sekunden 0,26 Sekunden

Benötigte Zeit im Durchschnitt:

0,31 Sekunden 0,33 Sekunden

Standardabweichung: 0,07 Sekunden 0,06 Sekunden

Auf Nachtfarben umschalten

Geste 1 0,49 0,31 0,14 0,07

Geste 2 0,46 0,33 0,09 0,06

Auf Tagfarben umschaltenSa

Auf Nachtfarben umschalten Auf Tagfarben umschalten

0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

Geste 1

Geste 2

Se

ku

nd

en

Tab. 6 Zeiten der Funktion „Auf Nachtfarben umschalten“

Tab. 7 Zeiten der Funktion „Auf Tagfarben umschalten“

Abb. 42 Gestenzeiten der Funktion „Tag-/Nachtfarben“

0,490,46

0,31 0,33

Page 52: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

52

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Navigation startenNavigation stoppen

Geste 1 0,69 0,63 0,15 0,11

Geste 2 0,88 0,85 0,2 0,19

Sa

Navigation starten Navigation stoppen

0

0,2

0,4

0,6

0,8

1

1,2

Geste 1

Geste 2

Se

ku

nd

en

Funktion Navigation starten/stoppen

Navigation starten:Geste 1 Geste 2

Versuchsperson 1 0,72 Sekunden 0,69 Sekunden

Versuchsperson 2 0,48 Sekunden 0,81 Sekunden

Versuchsperson 3 0,64 Sekunden 0,95 Sekunden

Versuchsperson 4 0,51 Sekunden 0,74 Sekunden

Versuchsperson 5 0,79 Sekunden 1,19 Sekunden

Versuchsperson 6 0,58 Sekunden 0,91 Sekunden

Versuchsperson 7 0,72 Sekunden 0,68 Sekunden

Versuchsperson 8 0,90 Sekunden 0,77 Sekunden

Versuchsperson 9 0,89 Sekunden 1,19 Sekunden

Benötigte Zeit im Durchschnitt:

0,69 Sekunden 0,88 Sekunden

Standardabweichung: 0,15 Sekunden 0,20 Sekunden

Navigation stoppen:Geste 1 Geste2

Versuchsperson 1 0,62 Sekunden 1,00 Sekunden

Versuchsperson 2 0,53 Sekunden 0,54 Sekunden

Versuchsperson 3 0,42 Sekunden 0,93 Sekunden

Versuchsperson 4 0,61 Sekunden 0,57 Sekunden

Versuchsperson 5 0,71 Sekunden 1,01 Sekunden

Versuchsperson 6 0,57 Sekunden 0,98 Sekunden

Versuchsperson 7 0,74 Sekunden 0,88 Sekunden

Versuchsperson 8 0,68 Sekunden 1,01 Sekunden

Versuchsperson 9 0,77 Sekunden 0,71 Sekunden

Benötigte Zeit im Durchschnitt:

0,63 Sekunden 0,85 Sekunden

Standardabweichung: 0,11 Sekunden 0,19 Sekunden

Tab. 8 Zeiten der Funktion „Navigation starten“

Tab. 9 Zeiten der Funktion „Navigation stoppen“

Abb. 43 Gestenzeiten der Funktion „Navigation starten/stoppen“

0,69

0,88

0,63

0,85

Page 53: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

53

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Karte nach links drehenKarte nach rechts drehen

Geste 1 1,65 1,89 0,74 0,4

Geste 2 1,13 1,17 0,33 0,24

Sa

Karte nach links drehen Karte nach rechts drehen

0

0,5

1

1,5

2

2,5

Geste 1

Geste 2

Se

ku

nd

en

Funktion Kartenansicht drehen

Karte nach links drehen:Geste 1 Geste 2

Versuchsperson 1 Sekunden 1,59 Sekunden 1,01 Sekunden

Versuchsperson 2 Sekunden 1,25 Sekunden 1,30 Sekunden

Versuchsperson 3 Sekunden 3,44 Sekunden 0,52 Sekunden

Versuchsperson 4 Sekunden 1,65 Sekunden 1,03 Sekunden

Versuchsperson 5 Sekunden 1,80 Sekunden 1,69 Sekunden

Versuchsperson 6 Sekunden 0,99 Sekunden 1,23 Sekunden

Versuchsperson 7 Sekunden 0,95 Sekunden 0,89 Sekunden

Versuchsperson 8 Sekunden 1,61 Sekunden 1,08 Sekunden

Versuchsperson 9 Sekunden 1,56 Sekunden 1,41 Sekunden

Benötigte Zeit im Durchschnitt:

1,65 Sekunden 1,13 Sekunden

Standardabweichung: 0,74 Sekunden 0,33 Sekunden

Karte nach rechts drehen:Geste 1 Geste2

Versuchsperson 1 1,75 Sekunden 1,13 Sekunden

Versuchsperson 2 1,37 Sekunden 1,30 Sekunden

Versuchsperson 3 2,55 Sekunden 1,48 Sekunden

Versuchsperson 4 2,38 Sekunden 0,96 Sekunden

Versuchsperson 5 2,04 Sekunden 1,25 Sekunden

Versuchsperson 6 1,88 Sekunden 0,91 Sekunden

Versuchsperson 7 1,98 Sekunden 1,42 Sekunden

Versuchsperson 8 1,63 Sekunden 0,78 Sekunden

Versuchsperson 9 1,40 Sekunden 1,29 Sekunden

Benötigte Zeit im Durchschnitt:

1,89 Sekunden 1,17 Sekunden

Standardabweichung: 0,40 Sekunden 0,24 Sekunden

Tab. 10 Zeiten der Funktion „Karte nach links drehen“

Tab. 11 Zeiten der Funktion „Karte nach rechts drehen“

Abb. 44 Gestenzeiten der Funktion „Kartenansicht drehen“

1,65

1,13

1,89

1,17

Page 54: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

54

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Geste 1 1,37 1,28 0,64 0,47

Geste 2 1,33 1,21 0,67 0,58

Einzoomen Auszoomen Sa

Einzoomen Auszoomen

0

0,5

1

1,5

2

Geste 1

Geste 2

Se

ku

nd

en

Funktion Kartenansicht zoomen

Karte einzoomen:Geste 1 Geste 2

Versuchsperson 1 0,94 Sekunden 1,07 Sekunden

Versuchsperson 2 0,98 Sekunden 1,29 Sekunden

Versuchsperson 3 0,55 Sekunden 0,64 Sekunden

Versuchsperson 4 2,77 Sekunden 2,99 Sekunden

Versuchsperson 5 1,35 Sekunden 1,33 Sekunden

Versuchsperson 6 1,77 Sekunden 0,95 Sekunden

Versuchsperson 7 1,59 Sekunden 1,09 Sekunden

Versuchsperson 8 1,12 Sekunden 1,05 Sekunden

Versuchsperson 9 1,27 Sekunden 1,52 Sekunden

Benötigte Zeit im Durchschnitt:

1,37 Sekunden 1,33 Sekunden

Standardabweichung: 0,64 Sekunden 0,67 Sekunden

Karte auszoomen:Geste 1 Geste2

Versuchsperson 1 0,89 Sekunden 1,00 Sekunden

Versuchsperson 2 1,26 Sekunden 0,90 Sekunden

Versuchsperson 3 0,64 Sekunden 0,51 Sekunden

Versuchsperson 4 2,30 Sekunden 2,57 Sekunden

Versuchsperson 5 1,25 Sekunden 1,41 Sekunden

Versuchsperson 6 1,32 Sekunden 0,93 Sekunden

Versuchsperson 7 1,21 Sekunden 1,08 Sekunden

Versuchsperson 8 1,04 Sekunden 1,07 Sekunden

Versuchsperson 9 1,58 Sekunden 1,38 Sekunden

Benötigte Zeit im Durchschnitt:

1,28 Sekunden 1,21 Sekunden

Standardabweichung: 0,47 Sekunden 0,58 Sekunden

Tab. 12 Zeiten der Funktion „Karte einzoomen“

Tab. 13 Zeiten der Funktion „Karte auszoomen“

Abb. 45 Gestenzeiten der Funktion „Kartenansicht zoomen“

1,37 1,33 1,281,21

Page 55: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

55

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Geste 1 3,52 2,74 0,78 0,54

Geste 2 2,86 2,96 0,83 0,83

Einzoomen und links drehen Einzoomen und rechts drehen Sa

Einzoomen und links drehen Einzoomen und rechts drehen

0

0,5

1

1,5

2

2,5

3

3,5

4

4,5

Geste 1

Geste 2

Se

ku

nd

en

Funktion Kartenansicht zoomen und drehen

Karte einzoomen und nach links drehen:Geste 1 Geste 2

Versuchsperson 1 3,22 Sekunden 2,14 Sekunden

Versuchsperson 2 3,64 Sekunden 2,03 Sekunden

Versuchsperson 4 4,82 Sekunden 4,08 Sekunden

Versuchsperson 5 3,02 Sekunden 3,03 Sekunden

Versuchsperson 7 2,90 Sekunden 3,00 Sekunden

Benötigte Zeit im Durchschnitt:

3,52 Sekunden 2,86 Sekunden

Standardabweichung: 0,78 Sekunden 0,83 Sekunden

Karte einzoomen und nach rechts drehen:Geste 1 Geste2

Versuchsperson 3 2,62 Sekunden 2,62 Sekunden

Versuchsperson 6 3,46 Sekunden 3,38 Sekunden

Versuchsperson 8 2,72 Sekunden 3,86 Sekunden

Versuchsperson 9 2,15 Sekunden 1,97 Sekunden

Benötigte Zeit im Durchschnitt:

2,74 Sekunden 2,96 Sekunden

Standardabweichung: 0,54 Sekunden 0,83 Sekunden

Tab. 14 Zeiten der Funktion „Karte einzoomen und nach links drehen“

Tab. 15 Zeiten der Funktion „Karte einzoomen und nach rechts drehen“

Abb. 46 Gestenzeiten der Funktion „Kartenansicht einzoomen und drehen“

3,52

2,86 2,742,96

Page 56: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

56

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Geste 1 2,94 3,32 0,69 0,9

Geste 2 2,86 2,7 0,7 0,87

Auszoomen und links drehenAuszoomen und rechts drehenSa

Auszoomen und links drehen Auszoomen und rechts drehen

0

0,5

1

1,5

2

2,5

3

3,5

4

4,5

Geste 1

Geste 2

Se

ku

nd

en

Karte auszoomen und nach links drehen:Geste 1 Geste 2

Versuchsperson 3 2,04 Sekunden 2,41 Sekunden

Versuchsperson 6 3,70 Sekunden 3,67 Sekunden

Versuchsperson 8 3,11 Sekunden 2,15 Sekunden

Versuchsperson 9 2,89 Sekunden 3,20 Sekunden

Benötigte Zeit im Durchschnitt:

2,94 Sekunden 2,86 Sekunden

Standardabweichung: 0,69 Sekunden 0,70 Sekunden

Karte auszoomen und nach rechts drehen:Geste 1 Geste2

Versuchsperson 1 2,54 Sekunden 3,54 Sekunden

Versuchsperson 2 3,31 Sekunden 2,10 Sekunden

Versuchsperson 4 4,62 Sekunden 3,25 Sekunden

Versuchsperson 5 2,43 Sekunden 1,49 Sekunden

Versuchsperson 7 3,71 Sekunden 3,12 Sekunden

Benötigte Zeit im Durchschnitt:

3,32 Sekunden 2,70 Sekunden

Standardabweichung: 0,90 Sekunden 0,87 Sekunden

Tab. 16 Zeiten der Funktion „Karte auszoomen und nach links drehen“

Tab. 17 Zeiten der Funktion „Karte auszoomen und nach rechts drehen“

Abb. 47 Gestenzeiten der Funktion „Kartenansicht auszoomen und drehen“

2,94 2,86

3,32

2,70

Page 57: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

57

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus BenndorffAuf Nachtfarben umschalten

Geste 1 0,49 0,31 0,14 0,07

Geste 2 0,46 0,33 0,09 0,06

Navigation startenNavigation stoppen

Geste 1 0,69 0,63 0,15 0,11

Geste 2 0,88 0,85 0,2 0,19

Karte nach links drehenKarte nach rechts drehen

Geste 1 1,65 1,89 0,74 0,4

Geste 2 1,13 1,17 0,33 0,24

Geste 1 1,37 1,28 0,64 0,47

Geste 2 1,33 1,21 0,67 0,58

Geste 1 3,52 2,74 0,78 0,54

Geste 2 2,86 2,96 0,83 0,83

Geste 1 2,94 3,32 0,69 0,9

Geste 2 2,86 2,7 0,7 0,87

Auf Nachtfarben umschaltenNavigation startenNavigation stoppenKarte nach links drehenKarte nach rechts drehen

Geste 1 0,49 0,31 0,69 0,63 1,65 1,89 1,37 1,28 3,52 2,74 2,94

Geste 2 0,46 0,33 0,88 0,85 1,13 1,17 1,33 1,21 2,86 2,96 2,86

0,14 0,07 0,15 0,11 0,74 0,4 0,64 0,47 0,78 0,54 0,69

0,09 0,06 0,2 0,19 0,33 0,24 0,67 0,58 0,83 0,83 0,7

Auf Tagfarben umschaltenSa

Sa

Sa

Einzoomen Auszoomen Sa

Einzoomen und links drehenEinzoomen und rechts drehenSa

Auszoomen und links drehenAuszoomen und rechts drehenSa

Auf Tagfarben umschalten Einzoomen Auszoomen Einzoomen und links drehenEinzoomen und rechts drehenAuszoomen und links drehen

0

0,5

1

1,5

2

2,5

3

3,5

4

4,5

Geste 1

Geste 2Se

ku

nd

en

Funktion Differenz Durchschnittszeit

Differenz Standartabweichung

Auf Nachtfarben schalten: 0,03 0,05Auf Tagfarben schalten: 0,02 0,01Navigation starten: 0,19 0,05Navigation stoppen: 0,22 0,08Karte nach links drehen: 0,52 0,41Karte nach rechts drehen: 0,72 0,16Karte einzoomen: 0,04 0,03Karte auszoomen: 0,07 0,11Karte einzoomen und nach links drehen:

0,66 0,05

Karte einzoomen und nach rechts drehen:

0,22 0,29

Karte auszoomen und nach links drehen:

0,08 0,01

Karte auszoomen und nach rechts drehen:

0,62 0,29

Die Differenz der Zeiten, sowohl bei der Durchschnittszeit, als auch bei der Standartab-weichung, überschreitet bei keiner Funktion den Wert von einer Sekunde.

Abb. 48 Überblick der Gestenzeiten aller Funktionen

Tab. 18 Differenz der Gestenzeiten und Standartabweichungen

Page 58: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

58

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

BeobachtungNach der Zeitnahme wurden die Probanden aufgefordert, die Funktionen erneut durch-zuführen. Dabei wurde objeketiv beobachtet, für welche der Gesten sich die Teilnehmer intuitiv entschieden haben.

Für die bipolare Auswertung wurde wie folgt gewertet:Geste 1 (G1): -1 | Geste 2 (G2): 1

Versuchsperson Tag-/Nachtfarben Navigation starten / stoppen Karte drehen Karte zoomen

1 G1 G2 G1 G2

2 G1 G2 G2 G1

3 G1 G1 G2 G2

4 G1 G1 G1 G1

5 G2 G1 G2 G1

6 G2 G1 G1 G1

7 G2 G2 G1 G2

8 G2 G1 G1 G1

9 G2 G2 G1 G1

Summe 1 -1 -3 -3

Mittelwert 0,11 -0,11 -0,33 -0,33

Standartab. 1,05 -1,05 1 1

Tabelle2

Seite 5

Tag/Nachtfarben Navigation starten/stoppenKarte drehen Karte zoomen Summe

Proband 1 -1 1 -1 1 0

Proband 2 -1 1 1 -1 0

Proband 3 -1 -1 1 1 0

Proband 4 -1 -1 -1 -1 -4

Proband 5 1 -1 1 -1 0

Proband 6 1 -1 -1 -1 -2

Proband 7 1 1 -1 1 2

Proband 8 1 -1 -1 -1 -2

Proband 9 1 1 -1 -1 0

Summe 1 -1 -3 -3

MW 0,111111111 -0,11111111 -0,33333333 -0,33333333

1,054092553 1,054092553 1 1

Navigation starten/stoppenKarte drehen Karte zoomen

0,111111111 -0,11111111 -0,33333333 -0,33333333

Sa

Tag-/Nachtfarben-2

-1

0

1

2

Tag-/Nachtfarben

Navigation starten/stoppen

Karte drehen

Karte zoomen

Für die Funktion Tag-/Nachtfarben ist eine minimale Tendenz zu Geste 2 erkennbar. Bei den Funktionen starten/stoppen, drehen und zoomen, tendieren die Probanden je-weils zu Geste 1. Allerdings kommt es bei jeder Funktion zu einer hohen Standartabwei-chung, da nur eine Testperson ausschließlich ein Gestenset verwendet hat. Die anderen Testpersonen wechselten für die Gesten zwischen den beiden Sets. Fünf Versuchsper-sonen verwendeten je 2 Gesten aus den Gestensets, und drei Probanden gebrauchten drei und eine Geste aus den jeweiligen Gestenkatalogen.

Tab. 19 Auswertung der objektiven Beobachtung

Abb. 49 grafische Auswertung der objektiven Beobachtung

Page 59: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

59

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

FragebogenDie Auswertung der Fragebögen (vergleiche dazu Beispiel Abb. 41 auf S. 50) ergab fol-gende Ergebnisse und Tendenzen. Nachfolgend steht -2 und -1 für Geste 1, 1 und 2 für Geste 2 und 0 für unentschieden. Es ist zu beachten, dass die Fragebögen die subjektive Meinung der Versuchspersonen widerspiegeln.

Funktion Tag-/Nachtfarben

Versuchsperson intuiti-ver

angeneh-mer logischer

leichter zu mer-

kengenauer

sicherer / lenkt

weniger ab

effekti-ver

1 1 2 2 0 2 2 22 0 1 2 2 2 1 03 -2 -2 -2 -2 -2 -2 -24 2 2 2 -2 0 2 25 -1 -1 -1 -2 -2 0 -16 2 2 2 1 1 1 27 2 2 1 1 2 2 08 -1 1 1 1 1 2 09 2 2 1 1 0 2 1

Summe 5 9 8 0 4 10 4MW* 0,56 1,00 0,89 0 0,44 1,11 0,44SA** 1,59 1,50 1,45 1,58 1,59 1,36 1,42

*Mittelwert, **Standartabweichung

Tabelle3

Seite 7

Proband intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver

1 1 2 2 0 2 2 2 11

2 0 1 2 2 2 1 0 8

3 -2 -2 -2 -2 -2 -2 -2 -14

4 2 2 2 -2 0 2 2 8

5 -1 -1 -1 -2 -2 0 -1 -8

6 2 2 2 1 1 1 2 11

7 2 2 1 1 2 2 0 10

8 -1 1 1 1 1 2 0 5

9 2 2 1 1 0 2 1 9

Summe 5 9 8 0 4 10 4 40

MW 0,555555556 1 0,888888889 0 0,444444444 1,111111111 0,444444444

1,589898669 1,5 1,452966315 1,58113883 1,589898669 1,364225462 1,424000624

intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver

0,555555556 1 0,888888889 0 0,444444444 1,111111111 0,444444444

1,589898669 1,5 1,452966315 1,58113883 1,589898669 1,364225462 1,424000624

Tag nacht

Sa

-3

-2

-1

0

1

2

3

intuitiver

angenehmer

logischer

leichter zu merken

genauer

sicherer / lenkt weniger ab

effektiver

G 2

G 1

Für die Funktion Tag-/Nachtfarben ist im Schnitt bzgl. der subjektiven Bewertung der Versuchspersonen eine Tendenz zur Geste 2 erkennbar. Lediglich für die Eigenschaft, welche der beiden Gesten leichter zur merken ist, gibt es keine eindeutige Favorisie-rung. Die Hohe Standartabweichung in den negativen Bereich zeugt davon, dass ein Teil der Probanden die Gesten aus Gestenset 1 bevorzugt.

Tab. 20 Auswertung des Fragebogens zur Funktion „Tag-/Nachtfarben“

Abb. 50 grafische Auswertung des Fragebogens zur Funktion „Tag-/Nachtfarben“

Page 60: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

60

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Funktion Navigation starten/stoppen

Versuchsperson intuiti-ver

angeneh-mer logischer

leichter zu mer-

kengenauer

sicherer / lenkt

weniger ab

effekti-ver

1 -2 -2 -1 0 -2 2 -22 -2 -2 -2 -2 -2 -2 -23 -2 -2 -2 -2 -2 -2 04 -2 -2 -2 -2 -2 -2 -25 -2 -1 -1 -1 -2 -1 -16 -2 -2 -1 -1 -2 0 -17 1 -1 1 0 -2 1 28 -1 1 -2 -2 -2 0 -19 -2 -2 -2 -1 -2 1 -1

Summe -14 -13 -12 -11 -18 -3 -8MW* -1,56 -1,44 -1,33 -1,22 -2 -0,33 -0,89SA** 1,01 1,01 1 0,83 0 1,50 1,27

*Mittelwert, **Standartabweichung

Tabelle3

Seite 7

Proband intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver Proband

1 1 2 2 0 2 2 2 11 1

2 0 1 2 2 2 1 0 8 2

3 -2 -2 -2 -2 -2 -2 -2 -14 3

4 2 2 2 -2 0 2 2 8 4

5 -1 -1 -1 -2 -2 0 -1 -8 5

6 2 2 2 1 1 1 2 11 6

7 2 2 1 1 2 2 0 10 7

8 -1 1 1 1 1 2 0 5 8

9 2 2 1 1 0 2 1 9 9

Summe 5 9 8 0 4 10 4 40 Summe

MW 0,555555556 1 0,888888889 0 0,444444444 1,111111111 0,444444444 MW

1,589898669 1,5 1,452966315 1,58113883 1,589898669 1,364225462 1,424000624

intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver

-1,55555556 -1,44444444 -1,33333333 -1,22222222 -2 -0,33333333 -0,88888889

1,013793755 1,013793755 1 0,833333333 0 1,5 1,269295518

Tag nacht Start/Stop

Sa Sa

-3

-2

-1

0

1

2

3

intuitiver

angenehmer

logischer

leichter zu merken

genauer

sicherer / lenkt weniger ab

effektiver

G 2

G 1

Hier zeigt sich eine Favorisierung der Geste aus dem Gestenset 1 durch die Probanden in nahezu allen sieben Eigenschaften. Nur in Bezug auf Sicherheit und Effektivität der Gesten zeigen sich für die Funktion Navigation starten und stoppen Tendenzen, erkenn-bar an der Standartabweichung, zu der Geste aus dem Set der definierten Gesten.

Tab. 21 Auswertung des Fragebogens zur Funktion „Navigation starten/stoppen“

Abb. 51 grafische Auswertung des Fragebogens zur Funktion „Navigation starten/stoppen“

Page 61: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

61

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Funktion Kartenansicht drehen

Versuchsperson intuiti-ver

angeneh-mer logischer

leichter zu mer-

kengenauer

sicherer / lenkt

weniger ab

effekti-ver

1 -2 1 1 0 2 0 12 -1 2 2 0 0 0 03 1 1 1 1 1 1 14 -2 -2 -2 -2 -2 -2 -25 -1 0 1 0 1 0 16 -2 0 0 -2 0 0 07 -2 -1 -1 -2 1 0 18 2 -1 1 -1 2 1 09 -1 0 -2 -2 1 0 0

Summe -8 0 1 -7 6 0 2MW* -0,89 0 0,11 -0,89 0,67 0 0,22SA* 1,45 1,22 1,45 1,17 1,22 0,87 0,97

*Mittelwert, **Standartabweichung

Tabelle3

Seite 7

Proband intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver Proband

1 1 2 2 0 2 2 2 11 1

2 0 1 2 2 2 1 0 8 2

3 -2 -2 -2 -2 -2 -2 -2 -14 3

4 2 2 2 -2 0 2 2 8 4

5 -1 -1 -1 -2 -2 0 -1 -8 5

6 2 2 2 1 1 1 2 11 6

7 2 2 1 1 2 2 0 10 7

8 -1 1 1 1 1 2 0 5 8

9 2 2 1 1 0 2 1 9 9

Summe 5 9 8 0 4 10 4 40 Summe

MW 0,555555556 1 0,888888889 0 0,444444444 1,111111111 0,444444444 MW

1,589898669 1,5 1,452966315 1,58113883 1,589898669 1,364225462 1,424000624

intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver

-0,88888889 0 0,111111111 -0,88888889 0,666666667 0 0,222222222

1,452966315 1,224744871 1,452966315 1,166666667 1,224744871 0,866025404 0,971825316

Tag nacht Start/Stop

Sa Sa

-3

-2

-1

0

1

2

3

intuitiver

angenehmer

logischer

leichter zu merken

genauer

sicherer / lenkt weniger ab

effektiver

G 2

G 1

Für die Funktion Karte drehen wird im Schnitt die mittels der Designstudie ermittelte Geste als intuitiver und leichter zu merken empfunden. Die definierten Gesten werden als logischer, genauer und effektiver erachtet. Sowohl Geste 1, als auch Geste 2, werden als gleich sicher und angenehm empfunden. Die teils hohen Standartabweichungen in den negativen, wie auch in den positiven Bereich, deuten darauf hin, dass es keine hun-dertprozentige Tendenz zu einer der Gesten bzgl. der sieben Eigenschaften gibt.

Tab. 22 Auswertung des Fragebogens zur Funktion „Kartenansicht drehen“

Abb. 51 grafische Auswertung des Fragebogens zur Funktion „Kartenansicht drehen“

Page 62: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

62

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Tabelle3

Seite 7

Proband intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver Proband

1 1 2 2 0 2 2 2 11 1

2 0 1 2 2 2 1 0 8 2

3 -2 -2 -2 -2 -2 -2 -2 -14 3

4 2 2 2 -2 0 2 2 8 4

5 -1 -1 -1 -2 -2 0 -1 -8 5

6 2 2 2 1 1 1 2 11 6

7 2 2 1 1 2 2 0 10 7

8 -1 1 1 1 1 2 0 5 8

9 2 2 1 1 0 2 1 9 9

Summe 5 9 8 0 4 10 4 40 Summe

MW 0,555555556 1 0,888888889 0 0,444444444 1,111111111 0,444444444 MW

1,589898669 1,5 1,452966315 1,58113883 1,589898669 1,364225462 1,424000624

intuitiver angenehmer logischer leichter zu merkengenauer sicherer / lenkt weniger abeffektiver

-1,55555556 -0,66666667 -0,77777778 -1,22222222 -0,22222222 -0,44444444 -0,66666667

1,013793755 1,224744871 1,394433378 0,971825316 1,301708279 1,333333333 1

Tag nacht Start/Stop

Sa Sa

-3

-2

-1

0

1

2

3

intuitiver

angenehmer

logischer

leichter zu merken

genauer

sicherer / lenkt weniger ab

effektiver

G 2

G 1

Funktion Kartenansicht zoomen

Versuchsperson intuiti-ver

angeneh-mer logischer

leichter zu mer-

kengenauer

sicherer / lenkt

weniger ab

effekti-ver

1 -2 1 2 -1 2 2 02 -2 -2 -1 -2 0 -1 03 1 1 1 1 1 1 14 -2 -2 -2 -2 -2 -2 -25 -1 0 -1 -1 -2 -1 -16 -2 -1 -1 -2 0 -1 -17 -2 -1 -1 -2 0 -2 08 -2 -2 -2 -1 -1 0 -19 -2 0 -2 -1 0 0 -2

Summe -14 -6 -7 -11 -2 -4 -6MW* -1,56 -0,67 -0,78 -1,22 -0,22 -0,44 -0,67SA** 1,01 1,22 1,39 0,97 1,30 1,33 1,00

*Mittelwert, **Standartabweichung

Bei der Funktion Karte zoomen ist im Schnitt bei allen sieben Eigenschaften eine Favori-sierung der mittels Designstudie ermittelten Geste erkennbar. Die Standartabweichung in den positiven Bereich bei den Eigenschaften „angenehmer“, „logischer“, „genauer“, „sicherer / leichter zu merken“ und „effektiver“ zeigt, dass einige Probanden hier zu den definierten Gesten tendieren.

Tab. 23 Auswertung des Fragebogens zur Funktion „Kartenansicht zoomen“

Abb. 52 grafische Auswertung des Fragebogens zur Funktion „Kartenansicht zoomen“

Page 63: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

63

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

4.4 Diskussion

Im Folgenden werden die mittels der Designstudie ermittelten Gesten als ermittelte Gesten und die designten Gesten als definierte Gesten bezeichnet.

Objektive AuswertungDie Auswertung der gemessenen Zeiten ergab, dass bei zwei von vier Funktionen (Karte drehen und Karte zoomen) die designten Gesten eine schnellere Ausführung erlaubten. Bei einer von vier Funktionen (Navigation starten / stoppen) war die mit Hilfe der De-signstudie ermittelte Geste effektiver. Für die Funktion Tag-/Nachtfarben wechseln wur-de mit der designten Geste weniger Zeit benötigt um auf die Nachtfarben umzuschal-ten. Mit der definierten Gesten konnten die Versuchspersonen im Schnitt schneller zu der Tagfarbenansicht wechseln. Zur Ausführung der kombinierten Funktionen Karte drehen und gleichzeitig zoomen, benötigten die Probanden mit den designten Gesten im Schnitt weniger Zeit. Lediglich das Einzoomen und nach rechts Drehen konnte mit der definierten Geste schneller ausgeführt werden. Bei allen Funktionen befindet sich die Differenz der beiden Gesten bezogen auf die Durchschnittszeit und die Standartab-weichung im Millisekundenbereich. Des Weiteren sind die Differenzen so gering, dass die Zeit als Hauptauswahlkriterium für eine der beiden Gesten vernachlässigt werden kann. Sollte bezüglich der anderen Kriterien keine eindeutige Tendenz zu einer Geste feststellbar sein, kann die Zeit als entscheidender Faktor herangezogen werden. Die größte zeitliche Differenz zwischen Geste 1 und Geste 2 zeigt sich bei den Funktionen „Karte drehen“, „Karte einzoomen und links drehen“ und „Karte auszoomen und rechts drehen“. Hier kann die Zeit als gleichwertiges Auswahlkriterium angesehen werden.

Bei der objektiven Beobachtung der Testpersonen konnte festgestellt werden, dass im Schnitt für eine von vier Funktionen (Tag-/Nachtfarben wechseln) die definierte Geste bevorzugt wurde. Drei von vier Funktionen (Navigation starten / stoppen, Karte drehen, Karte zoomen) wurden im Schnitt intuitiv mit den Gesten aus der Designstudie ausge-führt.

Fünf von neuen Testpersonen führten jeweils zwei der Funktionen mit den designten und die anderen beiden Funktionen mit den ermittelten Gesten aus. Bei drei von neun Probanden wurden im Durchschnitt die Gesten aus der Designstudie bevorzugt. Eine weitere Versuchsperson favorisierte die designten Gesten.

Subjektive AuswertungDie subjektive Auswertung mit Hilfe des Fragebogens ergab ein ähnliches Ergebnis, wie die objektive Auswertung. Für die Funktion „Tag-/Nachtfarben“ wechseln wurde von den Probanden die definierte Geste als intuitiv bezeichnet, für die drei weiteren Funkti-onen „Navigation starten/stoppen“, „Karte drehen“, „Karte zoomen“ die Gesten aus der Designstudie.

Page 64: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

64

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

Die definierte Geste wurde für die die Funktion „Tag-/Nachtfarben“ als angenehmer empfunden. Für die Funktionen „Navigation starten/stoppen“ und „Karte zoomen“ wur-den jeweils die ermittelten Gesten von den Versuchspersonen als angenehmer einge-stuft. Für die Funktion „Karte drehen“ waren im Schnitt beide Gesten gleich angenehm.

Als logischer wurden die definierten Gesten für die Funktionen „Tag-/Nachtfarben“ und „Karte drehen“ befunden. Für die Funktionen „Navigation starten/stoppen“ waren es die ermittelten Gesten.

Im Schnitt war bzgl. der Funktionen „Navigation starten/stoppen“, „Karte drehen“ und „Karte zoomen“ die ermittelte Geste für die Testpersonen leichter zu merken. Dies be-stätigt auch die objektive Beobachtung, da für die genannten Funktionen die ermittel-ten Gesten intuitiv gewählt wurden. Die beiden Gesten für die Funktion „Tag-/Nachtfar-ben“ wurden als gleich leicht zu merken eingestuft.

Als genauer und effektiver wurden für die Funktionen „Tag-Nachtfarben“ und „Karte drehen“ die definierten Gesten empfunden. Für die Funktionen „Navigation starten/stoppen“ und „Karte zoomen“ waren es die ermittelten Gesten. Für die Funktion „Karte zoomen“ kann der Eindruck der Versuchspersonen durch die Ergebnisse aus der Zeit-messung bestätigt werden.

Die ermittelten Gesten wurden von den Testpersonen für die Funktionen „Navigation starten/stoppen und „Karte zoomen“ als sicherer und weniger ablenkend eingestuft. Bei der Funktion „Tag-/Nachtfarben“ war es die definierte Geste. Als gleich sicher wur-den die beiden Gesten für die Funktion „Karte drehen“ erachtet.

Sonstige Beobachtungen Während des Tests konnte beobachtet werden, dass manche der Probanden mit der Hand, mit welcher sie die Geste ausführten, unbewusst und unabsichtlich den Erfas-sungsbereich des Sensors verließen. Dadurch konnte die Geste vom System nicht er-kannt werden, wodurch keine korrekte Ausführung der Funktionen möglich war. Für eine tatsächliche Anwendung einer Gestensteuerung im Auto wurde von den Testper-sonen ein optisch markierter bzw. ein größerer Erfassungsbereich des Sensors als mög-liche Problemlösung vorgeschlagen.

Zoomen Im Fragebogen gaben acht von neun Probanden an, Geste 1 sei intuitiver, da sie an die von Touchanwendungen bekannte Zoomgeste erinnert. Lediglich die Testperson die keine Erfahrung mit touchsensitiven Geräten hatte, und auch die Zoomgeste daher nicht kannte, bevorzugte sowohl nach objektiver als auch subjektiver Betrachtung die Geste 2. Von den anderen acht Probanden wählten zwei intuitiv ebenfalls Geste 2, ob-wohl sie in der Befragung Geste 1 als die intuitivere angaben.

Page 65: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

65

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

DrehungDie Probanden merkten an, dass sich für sie sowohl Geste 1 als auch Geste 2 für das Drehen der Kartenansicht, speziell in der Drehung nach links unangenehm und unna-türlich anfühle. Die Drehung erfolgte aus dem Handgelenk und machte nach rechts keine Probleme. Allerdings konnten die Testpersonen in der Linksdrehung die Hand nicht soweit drehen wie nach rechts, und mussten für eine analoge Drehung den Arm mitbewegen, was sie als unangenehm empfanden. Für eine spätere Anwendung könnte die Funktion so abgeändert werden, dass eine geringe Drehung nach links ausreicht, um die Karte entsprechend weit zu drehen.

Gorilla-ArmErmüdungserscheinungen und Schmerzen im Arm, die auftreten können wenn der Arm lange in einer horizontalen Lage gehalten wird, z.B. beim Bedienen von senkrechten Touch-Interfaces, wird als „Gorilla-Arm-Syndrom“ [21] bezeichnet. Diese Problematik konnte bei keiner der Versuchspersonen festgestellt werden, da sich die Zeit für die Ausführung der Gesten beider Sets im Sekundenbereich bewegte. Nach der Geste wur-de die Hand von den Probanden wieder an das Lenkrad geführt, so dass sich die Arm-muskulatur entspannen konnte. Die in der Studie verwendeten Gesten könnten somit während einer realen Autofahrt bedenkenlos eingesetzt werden, da die Gefahr eines „einschlafenden Arms“ der durch die Verwendung der Gestensteuerung hervorgerufen wird und zu Beeinträchtigungen im Straßenverkehr führen könnte, nicht gegeben ist.

FehlerIn die Bewertung der Gesten aus den beiden Gestensets sind keine Fehler, die in der Gestenausführung bemerkt wurden eingeflossen. Es konnte nie zweifelsfrei geklärt werden, ob die Fehler von den Versuchspersonen ausgingen, oder auf Erfassungspro-bleme des Sensors und des Prototypen zurückzuführen waren. Eine Bewertung der Fehler hätte deshalb zu einem verfälschten Ergebnis der Studie geführt.

ErfahrungEs hat sich gezeigt, dass die Versuchspersonen, welche bereits Erfahrung mit der Ges-tensteuerung, speziell mit der berührungslosen hatten, um einiges schneller die Funkti-onsweise des Prototypen verstanden haben und es bei ihnen weniger Erklärung als bei den Probanden ohne Erfahrung bedurfte.

Die Versuchspersonen bewerteten die Gestensteuerung für die in der Validierungsstu-die relevanten Funktionen durchweg als positiv. Allerdings gaben einige Testpersonen zu bedenken, dass sie befürchteten, während einer echten Autofahrt ungewollt eine Funktion auszulösen und sie diese dann ablenken und stören würde. Beispielsweise könnte das Verscheuchen einer Fliege oder der Griff zum Rückspiegel, um diesen zu justieren, fälschlicherweise als Steuerungsgeste interpretiert werden. Diesem Problem könnte man entgegen wirken, indem man für die fraglichen Anwendungen Gesten de-signt und entwickelt, die sich möglichst stark von natürlichen Gesten unterscheiden. Des Weiteren könnte ein spezieller Erfassungsbereich für die Steuerungsgesten im Auto festgelegt werden.

Page 66: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

66

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

5. Konklusion

5.1 Fazit

Die für die Arbeit definierten Ziele (siehe Seite 5) konnten fast ausnahmslos umgesetzt werden.

Mit Hilfe der beschriebenen Methodik des User-Driven-Design war es möglich, in einer Designstudie ein Gestenset für die in Kapitel 3 (siehe Seite 12) beschriebenen Funktio-nen eines Navigationssytems zu ermitteln. Durch einen mit der Gameengine Unity um-gesetzten, funktionsfähigen Prototypen konnten für vier Funktionen die ermittelten mit den designten bzw. definierten Gesten in einer Validierungsstudie bezüglich Anwend-barkeit und objektiven Kriterien, wie die benötigte Zeit zur Ausführung der Funktion mit Hilfe der Geste, verglichen werden.

Des Weiteren konnte geprüft werden, welche der Gesten für die Anwender intuitiver sind. Dies erfolgte sowohl objektiv durch die Beobachtung der Probanden in der Vali-dierungsstudie, also auch subjektiv mit Hilfe eines Fragebogens. Ferner wurden die bei-den Gestensets mit dem Fragebogen nach Kriterien wie Logik und Effizienz verglichen.

Lediglich der Sicherheitsaspekt der Gesten konnte nur subjektiv und nicht objektiv be-wertet werden, weshalb eine eindeutige Aussage diesbezüglich nicht möglich ist.

Aus der vorliegenden Arbeit resultieren folgende Ergebnissen:Die ermittelten Gesten variieren in ihrer Darstellung zum Teil nur sehr gering, was dar-an liegen kann, dass es den Probanden an Kreativität und Ideen fehlte, um komplexere und unterschiedlichere Gesten zu finden. Auch konnten keine grundlegend neuen und innovative Gesten gefunden werden. Die ermittelten Gesten erinnern zum größten Teil an Gesten, welche bereits aus anderen gestenbasierten Anwendungen bekannt sind. Dies ist darauf zurückzuführen, dass die Probanden der Studie von ihnen bereits be-kannten Gesten zu sehr beeinflusst waren.

Die meisten Funktionen konnten mit den designten Gesten etwas schneller ausgeführt werden, als mit den ermittelten. Jedoch wurden die in der Designstudie ermittelten Gesten mehrheitlich als intuitiver und leichter zu merken empfunden, was durch die Ergebnisse der objektiven Beobachtung bestätigt werden kann.

Das User-Driven-Design erwies sich als eine gute Methode, um für den späteren An-wender intuitive und leicht anwendbare Gesten für die Steuerung des Navigationssys-tems zu ermitteln. Um jedoch Überschneidungen bei den Gesten für die verschiedenen Funktionen zu vermeiden und um eine große Zahl an unterschiedlichen sowie inno-vativen Gesten zu erhalten, sollte nicht ausschließlich das User-Driven-Design genutzt werden, sondern eine Kombination mit designten Gesten in Betracht gezogen werden.

Page 67: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

67

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

5.2 Ausblick

Wie die Arbeit gezeigt hat, ist es schwierig mittels der Methodik des User-Driven-Design komplett neue und innovative Gesten zu ermitteln. Allerdings könnten die gesammel-ten Daten und die Ergebnisse der Designstudie und das damit zusammenhängende ermittelte Gestenset als Basis und Ausgangspunkt für Interaktionsdesigner dienen. So wäre es mögliche neue Gesten zu designen, die einen innovativen Ansatz versprechen, aber dennoch so intuitiv sind, dass sie von den zukünftigen Anwendern problemlos ver-standen und ausgeführt werden können. Eine Kombination aus designten und mittels User-Driven-Design ermittelten Gesten erscheint als die beste Lösung. Damit könnten zum Beispiel bei der zukünftigen Entwicklung von Gesten verschiedene Kulturkreise berücksichtigt und eingebunden werden. So lassen sich Gesten, welche in verschiede-nen Ländern unterschiedliche, zum Teil auch vulgäre Bedeutungen besitzen ausfindig machen und es wird vermieden, dass diese Einzug in das System bzw. die Anwendung erhalten.

Wie schon einleitend in dieser Arbeit beschrieben, soll mittels einer Gestensteuerung im Auto die Ablenkung des Fahrers reduziert, und somit die Sicherheit erhöht werden. In der Studie konnte die Sicherheit der verschiedenen Gesten bzw. ihre Ablenkung für den Fahrer nur durch die Befragung der Testpersonen ermittelt werden. Diese subjekti-ve Bewertung ist auf keinen Fall aussagekräftig. Deshalb ist es zwingend notwendig, die Gestensteuerung in weiteren Studien bzgl. ihrer Sicherheit unter realen Bedingungen, sprich während Testfahrten mit Autos zu überprüfen.

Für eine mögliche später Anwendung im Straßenverkehr, sollte eine reibungslose Funk-tion der Gestensteuerung gewährleistet sein. Daher ist es zu empfehlen, in zukünftigen und weiteren Studien die Gesten auch mit weiteren und unterschiedlichen Sensoren zu testen. Somit können Fehler und Probleme, die auf die Technik und Sensorik zurückzu-führen sind, ausgeschlossen und vermieden werden. Alternativen zu dem im Prototyp dieser Studie verwendeten Leap Motion Sensor wären zum Beispiel die Kinect One [22] von Microsoft, das Myo Band [23] von Thalmic Labs, oder der Duo Sensor [24] von Code Laboratories. Aber auch die Gestenerfassung mittels einer auf dem Musikinst-rument „Theremin“ basierenden Technik [25] [26] von Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken, könnte interessante Ergebnisse liefern.

Page 68: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

68

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

6. DanksagungAn dieser Stelle möchte ich mich bei Herrn Prof. Dr. Michael Kipp für die tatkräftige Un-terstützung und Betreuung während meiner Barbeitungszeit bedanken.

Des Weitern möchte ich mich bei Dominik Baumann bedanken, der mir mit Rat und Tat bei der ein oder anderen Frage bzgl. der Gameengine Unity zu Seite stand.Bei Sebastian Huber bedanke ich mich für die sehr gute Kooperation während der Ba-chelorarbeit.

Ebenfalls möchte ich mich bei allen Probanden der Benutzer- und Validierungstudie für deren Teilnahme und die aufgebrachte Zeit bedanken.

Weiterer Dank gebührt Agnes und Harald Benndorff, sowie allen meinen Freunden, für die Unterstützung in den letzten Jahren.

Page 69: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

69

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

7. ErstellungserklärungHiermit erkläre ich, dass ich die vorgelegte Arbeit selbstständig verfasst, noch nicht anderweitig für Prüfungszwecke vorgelegt, keine anderen als die angegebenen Quellen oder Hilfsmittel verwendet sowie wörtliche und sinngemäße Zitate als solche gekenn-zeichnet habe.

Name, Datum, Unterschrift

Page 70: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

70

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

8. Quellen

[1] Jürgen Rees Autofahrer unterliegen im Krieg der Knöpfe, Zeit Online, März 2013 Online verfügbar: http://www.zeit.de/auto/2013-03/auto-bedienung [zuletzt geprüft: 28.01.2014]

[2] Claus Christoph Eicher Artikel „Unfallrisiko: Nebensache Autofahren“ (S. 18 – 22) ADAC Motorwelt, Heft 7, Juli 2013 [3] Ablenkung: Blindflug in den Tod Online verfügbar unter: http://www.adac.de/infotestrat/adac-im-einsatz/motor welt/ablenkung.aspx?ComponentId=167610&SourcePageId=6729 [zuletzt geprüft: 28.01.2014]

[4] Damon Lavrinc Mercedes-Benz DICE concept brings gesture controls to the cockpit, autoblog, Januar 2012 Online verfügbar: http://www.autoblog.com/2012/01/12/mercedes-benz-dice- concept-brings-gesture-controls-to-the-cockpi/ [zuletzt geprüft: 28.01.2014]

[5] Hands-on with Mercedes-Benz DICE, Januar 2012, Online verfügbar: http://www.youtube.com/watch?v=MDfiDvApdcg [zuletzt geprüft: 28.01.2014]

[6] Audi dashboard with gesture control, Januar 2012, Online verfügbar: http://www.youtube.com/watch?v=hcqsHAoWW9Y [zuletzt geprüft: 28.01.2014]

[7] Auto-Bediensysteme: Frieden im Krieg der Knöpfe, Focus Online, Januar 2012, Online verfügbar: http://www.focus.de/auto/ratgeber/auto-auto-bediensysteme- frieden-im-krieg-der-knoepfe_aid_707454.html [zuletzt geprüft: 28.01.2014]

[8] Hyundai HCD-14 Genesis Concept Interior Demo, März 2013, Online verfügbar: http://www.youtube.com/watch?v=FPLL1pnZKho [zuletzt geprüft: 28.01.2014]

[9] GestureCarAudioController for Intel® Perceptual Computing Challenge, September 2013, Online verfügbar: http://www.youtube.com/watch?v=oPxn_71SSG0 [zuletzt geprüft: 28.01.2014]

Page 71: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

71

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

[10] Hannes Witzmann Game Controller – Vom Paddle zur gestenbasierten Steuerung Verlag Werner Hülsbusch, Boizenburg, 2007

[11] Rainer Dorau Emotionales Interaktionsdesign – Gesten und Mimik interaktiver Systeme Springer-Verlag, Berlin / Heidelberg, 2011

[12] Chadia Abras, Diane Maloney-Krichmar, Jenny Preece User-Centered Design, Bainbridge, W. Encyclopedia of Human-Computer Interaction, Thousand Oaks: Sage Publications, 2004 [13] Nutzerorientierte Gestaltung In: Wikipedia, Die freie Enzyklopädie, Bearbeitungsstand: 17. Juni 2013, Online verfügbar: http://de.wikipedia.org/w/index.php?title=Nutzerorientierte_ Gestaltung&oldid=119649783 [zuletzt geprüft: 28.01.2014]

[14] Eric Reiss: user centered design or user driven design?, November 2007, Online verfügbar: http://www.youtube.com/watch?v=7lDyChSlrQY [zuletzt geprüft: 28.01.2014]

[15] Jacob O. Wobbrock, Meredith Ringel Morris, Andrew D. Wilson User-Defined Gestures for Surface Computing, Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, ACM, 2009 Online verfügbar: http://faculty.washington.edu/wobbrock/pubs/chi-09.2.pdf [zuletzt geprüft: 28.01.2014]

[16] Christian Kray, Daniel Nesbitt, John Dawson, Michael Rohs User-Defined Gestures for Connecting Mobile Phones, Public Displays, and Tabletop, Proceedings of the 12th international conference on Human computer interaction with mobile devices and services, ACM, 2010. Online verfügbar: http://www.medien.ifi.lmu.de/pubdb/publications/pub/ kray2010gestures/kray2010gestures.pdf [zuletzt geprüft: 28.01.2014]

[17] Dipl.-Ing. Michael Geiger, Dipl.-Ing. Ralf Nieschulz, Dipl.-Ing. Martin Zobl, Prof. Dr. rer. nat. Manfred Lang Bedienkonzept zur Gestenbasierten Interaktion mit Geräten im Automobil, Vol. 1678, Tagungsband VDI/VDE-GMA Fachtagung USEWARE 2002, Darmstadt, 11.-12.06. 2002, Düsseldorf: VDI-Verlag, 2002 Online verfügbar: http://www.mmk.e-technik.tu-muenchen.de/publ/pdf/02/ 02gei1.pdf [zuletzt geprüft: 28.01.2014]

Page 72: „Intuitive Gestensteuerung für den Fahrer im Auto“michaelkipp.de/student/Benndorff2014.pdf · 2014. 10. 1. · Abb. 5 „The user-defined gesture set“5 mit den Gesten übereinstimmen,

72

Intuitive Gestensteuerung für den Fahrer im Auto Bachelorthesis von Markus Benndorff

[18] Unity (Spielengine) In: Wikipedia, Die freie Enzyklopädie, Bearbeitungsstand: 16. Januar 2014, Online verfügbar: http://de.wikipedia.org/w/index.php?title=Unity_(Spielengine)& oldid=126539148 [zuletzt geprüft: 28.01.2014]

[19] Unity – Multiplatform Online verfügbar: http://unity3d.com/unity/multiplatform [zuletzt geprüft: 28.12.2013]

[20] Andreas Donath Leap Motion in Einzelteile zerlegt, golem.de, Juli 2013 Online verfügbar: http://www.golem.de/news/gestenerkennung-leap-motion- in-einzelteile-zerlegt-1307-100107.html [zuletzt geprüft: 28.01.2014]

[21] Alexander Phleps, Micha Block Entwicklung eines Multitouch-Konferenztisches, Tagungsband der Informatik 2011, Band P192, 2011 Online verfügbar: http://www.user.tu-berlin.de/komm/CD/paper/061512.pdf [zuletzt geprüft: 28.01.2014]

[22] Xbox One Kinect Online verfügbar: http://support.xbox.com/de-DE/xbox-one/kinect/com- mon-gestures [zuletzt geprüft: 28.01.2014]

[23] Thalmic Labs https://www.thalmic.com/en/myo/ [zuletzt geprüft: 28.01.2014]

[24] DUO Online verfügbar: http://duo3d.com/ [zuletzt geprüft: 28.01.2014]

[25] German Research Center for Artificial Intelligence GmbH CARMINA::GEREMIN,Touch-free microgestures for Automotive Applications Online verfügbar: http://www.dfki.de/~endres/geremin/ [zuletzt geprüft: 28.01.2014]

[26] Wolfgang Stieler, Duncan Graham-Rowe Gestensteuerung im Auto, Technology Review, Februar 2012, Online verfügbar: http://www.heise.de/tr/artikel/Gestensteuerung-im- Auto-1185473.html [zuletzt geprüft: 28.01.2014]