Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung...

100
Masterarbeit Modellierung von Emotionen mittels assistiver Roboter eingereicht von Maximilian Feigl geboren am 30.12.1990 in Regensburg Technische Universität Dresden Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Mensch-Computer-Interaktion Betreuer: David Gollasch, M. Sc. Dr.-Ing. Limin Zeng Hochschullehrer: Prof. Dr. rer. nat. habil. Gerhard Weber Eingereicht am 22. Februar 2018

Transcript of Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung...

Page 1: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Masterarbeit

Modellierung von Emotionenmittels assistiverRoboter

eingereicht von

Maximilian Feiglgeboren am 30.12.1990 in Regensburg

Technische Universität Dresden

Fakultät InformatikInstitut für Angewandte Informatik

Lehrstuhl Mensch-Computer-Interaktion

Betreuer:David Gollasch, M. Sc.Dr.-Ing. Limin Zeng

Hochschullehrer:Prof. Dr. rer. nat. habil. Gerhard Weber

Eingereicht am 22. Februar 2018

Page 2: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 3: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Erklärung

Ich erkläre, dass ich die vorliegende Arbeit mit dem Titel Modellierung von Emotionen mittelsassistiver Roboter selbständig unter Angabe aller Zitate angefertigt und dabei ausschließlich dieaufgeführte Literatur und genannten Hilfsmittel verwendet habe.

Dresden, 22. Februar 2018

Maximilian Feigl

Page 4: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 5: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Kurzfassung / Abstract

KurzfassungIn Zeiten von dringend benötigtem Pflegepersonal sind Roboter als Pflegekräfte der Zukunft eininteressantes Forschungsgebiet. Um das Zusammenleben zwischenMenschen und Robotern zuverbessern ist es wichtig, dass Roboter Emotionen darstellen können. Da eine neue Emotions-implementierung, für jeden neu entwickelten Roboter, mit sehr großem Aufwand verbundenist soll im Rahmen dieser Arbeit ein Universalmodell entstehen, mit dem Emotionen automati-siert auf Robotern mit unterschiedlichen Fähigkeiten und Einschränkungen dargestellt werdenkönnen. Dazuwird zunächst die bestehende Literatur über Emotionen gesichtet um Emotionenbestimmte Körperbewegungen und Gesichtsausdrücke zuzuordnen. Anschließend wird über-prüft welche Anforderungen ein Emotionsmodell erfüllen muss um für möglichst viele Robotererkennbare Emotionen produzieren zu können. Dabei wird erkennbar, dass Feature-Modelle ei-nen Großteil der benötigten Notation bereits abbilden, weshalb die vorgestellten Emotionsmo-delle sich an dieser Notation anlehnen. Um zu überprüfen, ob die erstelltenModelle erkennbareEmotionen produzieren können wird eine Android Bibliothek entwickelt, die anschließend imspeziellen Anwendungsfall auf dem Roboter Loomo von Segway Robotics eingesetzt wird. Mitdiesem Roboter wird dann ein Nutzertest durchgeführt, bei dem sich herausstellt, dass dasMo-dell erkennbare Emotionen liefert und bei grundlegenden Emotionen mit 80% Erkennungsratesehr gute Ergebnisse liefert, andere Emotionen aber aufgrund des fehlenden Kontext allerdingsnur schlecht erkannt werden.

AbstractIn times of need for care personal their robotic counterparts are an interesting and strivingresearch topic. To improve the coexistence of robots and humans it is important for robots tobe able to display emotions. Because the current development process of specific models foreach robot is very expensive, the objective of this thesis is to develop a universally usable modelwhich can automatically display emotions for robots with different capabilities and limitations.Therefore the first step is to sight the literature about emotions to map specific movementsand facial expressions to specific emotions. Afterwards the specific needs, to enable as manyrobots as possible to display emotions, for such a model are reviewed. This review shows thatfeature models already have the capability to display most of the needed notation, which leadsto them beeing used as the basis of the here introduced emotion models. To check wether saidmodels have the ability to create recognizable emotions an android library is created whichis used to enable the robot Loomo of Segway Robotics display emotions. The performed userstudy shows that basic emotions are easily distinguishable and have 80% recognition rate, whileother emotions lacked behind because of the missing context that is needed to identify them.

I

Page 6: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 7: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Inhaltsverzeichnis

Kurzfassung / Abstract I

1 Motivation 1

2 Hintergrund zu Emotionen 32.1 Überblick über verschiedene Emotionsdefinitionen . . . . . . . . . . . . . . . . . . 32.2 Bestandteile von Emotionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3 Erkennung von Emotionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.4 Emotionen bei Robotern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Modell zur Übertragung von Emotionen auf Roboter 173.1 Universelle Emotionsmodelle als Hilfe für Entwickler . . . . . . . . . . . . . . . . . 173.2 Anforderungen an ein Emotionsmodell . . . . . . . . . . . . . . . . . . . . . . . . . 173.3 Feature-Modelle als Notationsansatz . . . . . . . . . . . . . . . . . . . . . . . . . . 193.4 Erweiterung des Feature-Modells zum Emotionsmodell . . . . . . . . . . . . . . . 213.5 Modelle der einzelnen Emotionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.5.1 Wut (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.5.2 Angst (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . . . . . . 233.5.3 Beklemmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.5.4 Freude (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . . . . . 233.5.5 Ekel (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . . . . . . . 233.5.6 Traurigkeit (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . . . 243.5.7 Überraschung (grundlegende Emotion) . . . . . . . . . . . . . . . . . . . . . 243.5.8 Unsicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.6 Verwendung des Modells zur Implementierung von Emotionen . . . . . . . . . . . 333.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

4 PrototypischeModellimplementierung an einem konkreten Beispiel 374.1 Vorstellung von Segway Robotics Loomo . . . . . . . . . . . . . . . . . . . . . . . . 374.2 Implementierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

4.2.1 Architektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.2.2 Algorithmus zur Umwandlung der Modelle in dargestellte Emotionen . . . 41

4.3 Einschränkungen und Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 444.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen 475.1 Aufbau der Studie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475.2 Durchführung der Studie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475.3 Auswertung der Studie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485.4 Interpretation der Studie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

III

Page 8: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Inhaltsverzeichnis

6 Fazit und Ausblick 576.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576.2 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 586.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

A Anhang iA.1 Befehlsliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iA.2 Fragebogen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . v

A.2.1 Ergebnisse des Fragebogens . . . . . . . . . . . . . . . . . . . . . . . . . . . xiv

Abbildungsverzeichnis xxvii

Abkürzungsverzeichnis xxviii

Tabellenverzeichnis xxviii

Quellcodeverzeichnis xxviii

Literatur xxix

IV

Page 9: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

1 Motivation

Durch eine immer älterwerdendeGesellschaft, kombiniertmit einem seit Jahren starken Perso-nalmangel in Pflegeberufen [Bun17] wird der Einsatz von Assistenzrobotern in der Pflege immerwichtiger. Wie vielversprechend Roboter auf diesem Gebiet sind zeigen immer mehr Studien,die sich mit diesem Thema in letzter Zeit befassen. So entwickelten zum Beispiel Wada et al.2003 einen robbenähnlichen Roboter [Wad+03], oder Stiehl und Breazeal einen Bären [SB05]um Einsamkeit in Altenheimen vorzubeugen. Durch die häufige Interaktion entwickelt sich eineenge Bindung zwischen Mensch und Roboter und es entsteht zwangsweise das Verlangen nacheiner besseren Zusammenarbeit und Kommunikation zwischen Mensch und Roboter.Breazeal [Bre09] wirft dabei auf, wie wichtig Emotionsdarstellung bei Robotern für die soziale

Akzeptanz und die Entstehung einer Bindung zwischen Robotern und Menschen sind. Geradeim Kontext der Pflege, zum Beispiel bei dementen Patienten, spielt die Kommunikation überEmotionen eine große Rolle, da von ihnen Emotionenmeist schneller und einfacher verstandenwerden, als gesprochene Sätze.

Ziele der ArbeitDas Hauptziel dieser Arbeit besteht in der Erstellung eines Modells zur multimodalen Emoti-onsdarstellung bei Robotern. Das heißt eine Zerlegung einzelner Emotionen in deren Teile, alsoBewegungen, Töne und Gesichtsausdruck, wobei im Idealfall jeder Teil für sich eine Erkennungder gezeigten Emotion zulassen soll. Anschließend soll dieses Modell auf den Roboter Loomoübertragen und getestet werden. Die Anwendungsfälle dafür sind Fähigkeiten die Loomo alsBegleiter für zu Hause benötigen könnte, wie

• eine Motivationshilfe, bei der sich seine Laune, mit der Anzahl der erledigten Aufgabenbessert, bzw. verschlechtert

• ein Tagesplaner

• ein Ernährungsplaner

• Emotionen zur Batteriestandanzeige

• Termineinhaltung

• Überwachung, bei der Emotionen den Sicherheitszustand widerspiegeln

Im Kontext dieser Anwendungsfälle stellt sich die Frage:

Ist es möglich, ein Verfahren zu entwickeln, mit dem automatisiert Emotionen aufRobotern, mit unterschiedlichen Körperteilen und Fähigkeiten erkennbar, darge-stellt werden können?

Um dies zu überprüfen sind mehrere Teilziele notwendig:

• Einarbeitung in Emotionen als Kommunikationsmittel

1

Page 10: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

1 Motivation

• Zerlegen der Emotionen in benötigte Körperteile und Bewegungen

• Erstellung eines Mappings von Emotionen auf verschiedene Ausgabemodalitäten (Audio,Gesichtsausdrücke, Bewegungen)

• Prototypische Implementierung der Emotionen anhand des Roboters Loomo

• Nutzerstudie zum Test der Erkennungsgenauigkeit der Emotionen, bestehend aus einemTest, bei dem Probanden Emotionen erkennen sollen und einer anschließenden Befra-gung.

Aufbau der ArbeitUm dieses Modell erstellen zu können wird zunächst in Abschnitt 2.1 die Frage beantwortet,was Emotionen sind und welche Funktionen sie im täglichen Leben übernehmen. Im nächs-ten Schritt wird in Abschnitt 2.2 erklärt aus welchen Gesichtsausdrücken und Bewegungen dieeinzelnen Emotionen bestehen. In Abschnitt 2.3 wird grob umrissen, wie Emotionserkennungfunktioniert und in Abschnitt 2.4 werden beispielhaft einige Roboter mit Emotionsfähigkeitengenannt.Anhand dieser Informationen wird anschließend in Kapitel 3 ein Mappingsystem entwickelt,

bei dem die Emotionen in möglichst vielen Modalitäten auf unterschiedliche Roboter übertra-gen werden können. Zur Verifizierung der Nutzbarkeit dieses Modells werden die Emotionenanschließend in Kapitel 4 exemplarisch auf dem Roboter Loomo [Seg] implementiert und in deneinzelnen Unterkapiteln dazu erklärt wie dasMappingsystem genutzt wurde um die Emotionenzu implementieren.In der anschließenden Nutzerstudie, die in Kapitel 5 behandelt wird, soll zunächst in Ab-

schnitt 5.1 und 5.2 der Aufbau und die Durchführung der Studie beschrieben werden, bevor inAbschnitt 5.3 auf die Ergebnisse eingegangen wird, die anschließend in Abschnitt 5.4 interpre-tiert werden.Zuletzt wird in 6 das Ergebnis der Arbeit zusammengefasst und eventuelle weiterführende

Schritte zur Vertiefung dieses Themas vorgeschlagen.

2

Page 11: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2 Hintergrund zu Emotionen

Um ein System zur Emotionsdarstellung bei Robotern entwickeln zu können, ist es zunächstnötig zu erörtern, was Emotionen sind undworaus die einzelnen Emotionen bestehen. DesWei-teren ist es wichtig den Kontext der Interaktion zwischen Mensch und Roboter zu verstehen,um zu erkennen, wo und wie Emotionen dabei sinnvoll eingesetzt werden können.

2.1 Überblick über verschiedene Emotionsdefinitionen

Scherer definiert Emotionen als:

Definition 1: Emotionsdefinition nach Scherer

„[...] a sequence of interrelated, synchronized changes in the states of all of the five orga-nismic subsystems in response to the evaluation of an external or internal stimulus eventas relevant to central concerns of the organism.“ [Sch87]

Emotionen sind also eine Reaktion auf ein entweder körperintern, oder -extern auftretendesEreignis, das eine zentrale Bedeutung für denOrganismus hat. Außerdem teilt er die Funktionenvon Emotionen, wie in Tabelle 2.1 dargestellt, in fünf Bereiche ein.

Tabelle 2.1 – Beziehung zwischen Subsystemen von Organismen und den Funktionen und Kompo-nenten von Emotionen [Sch05]

Zentrales Nervensystem (ZNS); Neuro-endokrines System (NES); Autonomes Nervensystem(ANS); Somatisches Nervensystem (SNS)

3

Page 12: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2 Hintergrund zu Emotionen

Er sagt weiterhin, dass Emotionen immer stimulierende Ereignisse vorausgehen. Das kön-nen, Naturphänomene, andere Menschen oder unser eigenes Verhalten sein. Weiterhin sindEmotionen wertungsabhängig. Dabei unterscheidet er zwischen intrinsic appraisal und tran-sactional appraisal. Die treffendste Übersetzung für Intrinsic appraisal ist charakterabhängigeBewertung, bei der Ereignisse anhand genetischer, oder erlernter Vorlieben bewertet werden.Im Gegensatz dazu werden Ereignisse bei der Transaktionsbewertung anhand ihres Nutzensfür bestimmte Ziele, oder Bedürfnisse bewertet. Anhand dieser Bewertung bereiten Emotio-nen angebrachte Reaktionen auf dieses Ereignis vor. Weil sich die Ereignisse und vor allem dieBewertung dieser Ereignisse sehr schnell ändern, ändert sich auch das Antwortverhalten aufdiese Ereignisse sehr schnell und durchkreuzt durch die starke motivierende Natur von Emo-tionen auch andere Ziele oder Pläne. Um trotzdem Flexibilität im Verhalten zu erlauben sindEmotionen dafür nur von relativ kurzer Dauer. [Sch05]

Emotionen als KommunikationsmittelEine vorrangige Aufgabe Emotionen ist die Kommunikation mit anderen Menschen. Einen Be-leg dafür gibt eine Studie von Kraut und Johnston [KJ79], die zeigte, dass Bowler nach einemguten Wurf öfter lächelten, wenn sie ihre Mitspieler ansahen, als beim Beobachten der Pins.Dabei spiegeln gezeigte Emotionen aber keinesfalls immer den wirklichen Gefühlszustand desMenschen wider, sondern können auch lediglich erlernte soziale Konventionen sein und so-gar der wirklichen gefühlten Emotion widersprechen, wie zum Beispiel beim Erhalt eines un-erwünschten Geschenks, bei dem man dennoch lächelt und sich freundlich bedankt, an derOberfläche somit glücklich wirkt, es aber in Wirklichkeit gar nicht ist [Hes01]. Ekman hingegenist der Meinung, dass Emotionen nicht nur zur Kommunikation dienen und während zwischen-menschlichen Beziehungen auftreten, sondern auch alleine, beispielsweise als Reaktion auf einGewitter. Allerdings ist auch er der Meinung, dass die Hauptaufgabe darin besteht möglichstschnell wichtige zwischenmenschliche Aufgaben zu bewältigen. [Ekm92]

Emotionsaufgaben nachWilliam JamesEine weitere Art Emotionen zu definieren ist auf William James zurückzuführen. James sagt,dass Emotionen auf bestimmte körperliche Veränderungen, oder Handlungen zurückzuführensind. Dermenschliche Körper hat gelernt automatisch auf überlebenswichtige Umwelteinflüssezu reagieren. Dieses Erfahren der körperlichen Reaktion ist dann die Emotion. Er argumentiertdamit, dass ohne die körperliche Reaktion auf ein Ereignis nur rational überlegte Handlungenohne Emotion folgen würden und, dass die Handlung für die wirkliche Emotion verantwortlichist [Jam84]. Ein Problem dieser Argumentationsreihe, dass die Emotion erst auf eine körperlicheReaktion folgt, das viele Kritiker anmerken ist, dass der kausale Zusammenhang zwischen einerKörperbewegung und einer darauf folgenden Emotion nicht immer Sinn ergibt. So argumentie-ren sie, dass beispielsweise die Aussage „Wir fürchten uns weil wir laufen“ in dieser Reihenfolgekeinen Sinn ergibt. [Cor00]

Kognitiver Ansatz der EmotionsdefinitionNeben dem Darwin‘schen und James‘schen Ansatz gibt es noch die Kognitive Perspektive. Die-ser Ansatz baut auf den beiden vorher genannten auf, nimmt aber noch einen Schritt hinzu,in dem Ereignisse bewertet werden. Diese Bewertungen erfolgen sofort nach dem Ereignis imUnterbewusstsein und informieren den Körper über bestimmte Umstände in der Umgebungund bereiten ihn auf eine angebrachte Handlung vor. Dabei spielt die Personalität und persön-liche Erfahrungen, bzw. Gelerntes für die Bewertung und Handlungsvorbereitung der Person

4

Page 13: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.2 Bestandteile von Emotionen

eine große Rolle [Cor00]. Ein Beleg für diese Theorie der vorangehenden Bewertung wurdedurch Speisman et al. gebracht, die in einer Studie zeigten, dass die Reaktionen der Testper-sonen durch eine Änderung des Kontexts, bzw. der Situationsbewertung beeinflusst werdenkann [Spe+64].

Emotionsdefinition der sozialen KonstruktivistenDie letzte vorgestellte Perspektive zum Verständnis von Emotionen schließt sich den Theo-rien der sozialen Konstruktivisten an. Diese Theorie besagt, dass Emotionen Produkte sozia-ler Regeln und gelernter Verhaltensweisen sind, die von sozialen Gruppen vorgegeben wer-den. [Ave83]

Grundlegende EmotionenEine allen diesen genannten Theorien übergeordnete Unterteilung von Emotionen bezieht sichauf den Stellenwert, den die Emotion im täglichen Leben einnimmt. Eine sehr häufig verwendeteUnterkategorie sind die grundlegenden Emotionen.

Sie unterliegen keinerlei sozialen, oder gesellschaftlichen Unterschiede und sind aufder ganzen Welt universell verständlich.

Es gibt sogar Argumente dafür, dass alle höher entwickelten Tiere diese Emotionen besitzenund darstellen können. [Ekm92]Diese grundlegenden Emotionen sind Freude, Wut, Traurigkeit, Angst, Ekel und dienen dem

Umgangmit essenziellen Aufgaben im Leben [Ekm92]. Ein Unterschied zu nicht grundlegendenEmotionen ist, dass die einzelnen grundlegenden Emotionen jeweils eindeutig von den ande-ren grundlegenden Emotionen unterschieden werden können, wodurch sie eine sehr hohe Er-kennungsquote haben. Im Gegensatz zu zweideutigen Emotionen, die erst durch den sozialenKontext eindeutig erkennbar gemacht werden. [Hes01]

2.2 Bestandteile von Emotionen

Der nächste wichtige Schritt auf dem Weg zu einem Emotionsmodell für Roboter ist die Über-legung woraus die einzelnen Emotionen bestehen. Wichtig dafür ist es eine Klassifizierung vonBewegungen und Gesichtsausdrücken zu finden, die bestimmte Emotionen darstellen.Die meisten Emotionen werden durch einen Gesichtsausdruck und/oder eine Körperbewe-

gung oder Körperhaltung dargestellt. Bis jetzt ist es jedoch noch nicht gelungen die Beteiligungjedes Körperteils oder jeder Bewegung an einer Emotion abschließend zu bestimmen [BCB10].Ekman und Friesen gehen in [EF74] sogar so weit zu sagen, dass Körperbewegungen oder Kör-perhaltungen alleine gar keine Emotion ausdrücken, oder darstellen können, sondern lediglichdie Intensität einer Emotion damit dargestellt wird. Dem entgegengesetzt steht, dass in einerStudie von McCleanney et al. [MN89] festgestellt wurde, dass Probanden Traurigkeit und Wutbesser erkannten, wenn nur der Körper statt Körper und Gesicht gezeigt wurde.Wallbott hingegen stellte fest, dass es durchaus verschiedene Bewegungen gibt, die uns nur

zwischen aktiven und passiven Emotionen, wie zum Beispiel Wut, bzw. Traurigkeit unterschei-den lassen. Allerdings konnten bestimmte Körperhaltungen erfolgreich einzelnen Emotionenzugeordnet werden. [Wal98]Gunes und Piccardi [GP06] gingen sogar noch einen Schritt weiter und entwickelten eine

Gestendatenbank für Gesichts- und Körpergesten (FABO).

5

Page 14: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2Hintergrund

zuEm

otionenTabelle 2.2 – Gesichtsausdrücke und Körperbewegungen der FABO Teil 1 [GP06]

Ausdruck Gesichtsausdruck Körperbewegung

Neutral Kein Ausdruck Hände auf dem Tisch Entspannt

Unsicherheit Lippen ziehen Herabhängende Lider Geschlossene Augen Augen wandern nach rechts/links/oben/unten

Kopf links/rechts/oben/unten geneigt Handflächen nach oben Achselzucken Handflächen nach oben + Achselzucken Rechte/linke Hand kratzt Kopf/Haare Rechte/linke Hand berührt rechtes Ohr Rechte/linke Hand berührt Nase

Rechte/linke Hand berührt Kinn Rechte/linke Hand berührt Nacken Rechte/linke Hand berührt Stirn Beide Hände berühren Stirn Rechte/linke Hand unter dem Kinn, Ellbogen auf dem Tisch Beide Hände hinter dem Kopf

Wut Brauen gesenkt und zusammengezogen Linien erscheinen zwischen Augenbrauen Unteres Lid gespannt /evt. Erhöht Unteres Lid gespannt /abgesenkt wegen Brauen Lippen zusammengepresst mit geraden, nach oben oder unten gezogenen Ecken

Geöffneter/aufgeplusterter Körper Hände auf Hüfte Geschlossene Hände / geballte Fäuste Handflächen nach unten Geste Linke/Rechte Hand gehoben

Fingerzeig mit rechter/linker Hand, schütteln der Finger/Hand Verschränkte Arme

Überraschung Augenbrauen erhöht Haut unter Brauen gedehnt, nicht in Falten Horizontale Falten über Stirn Geöffnete Augen Kinn fällt herunter oder Mund wird ausgedehnt

Rechte/linke Hand geht zum Kopf Beide Hände gehen zum Kopf Bewegt rechte/linke Hand hoch Beide Hände berühren Kopf Beide Hände berühren Gesicht, Mund Kopfschütteln

Rechte/linke Hand berührt Gesicht, Mund Beide Hände über Kopf Rechte/linke Hand berührt Gesicht Beide Hände berühren Backen Beide Hände bedecken Mund Rückwärtsbewegung

Traurigkeit Innere Ecken der Augenbrauen nach oben gezogen Innere Ecken des oberen Lids erhöht Ecken der Lippen nach unten gezogen

Zusammengezogener/geschlossener Körper Herabhängende Schultern Kopf gebeugt Körperbewegungen – nach vorn gelehnter Oberkörper Gesicht mit beiden Händen bedeckt Selbstberührung (ungläubig)/bedeckt Körperteile/Arme um Körper/Schultern

Körper gestreckt und Hände über Kopf Hände niedriger als in normaler Position Geschlossene Hände bewegen sich langsam Beide Hände berühren langsam den Kopf Eine Hand berührt den Nacken, Hände bewegen sich geschlossen zusammen und gesenkter Kopf

6

Page 15: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.2Bestandteile

vonEm

otionen

Tabelle 2.3 – Gesichtsausdrücke und Körperbewegungen der FABO Teil 2 [GP06]Ausdruck Gesichtsausdruck Körperbewegung

Angst Brauen erhöht and zusammengezogen Stirnfalten zusammengezogen Oberes Augenlid erhöht and unteres nach oben gezogen Mund geöffnet Lippen leicht angespannt oder zusammengezogen

Körper zusammengezogen Geschlossener Körper/geschlossene Hände/geballte Fäuste Körper zusammengezogen, arme um den Körper Selbstberührung (ungläubig) / Körperteile bedecken / Arme um den Körper / Schultern Rückwärtsbewegung, Hand bedeckt Kopf

Rückwärtsbewegung, Hand bedeckt Nacken Rückwärtsbewegung, Hand bedeckt Gesicht Beide Hände über Gesicht Selbstberührung (ungläubig), bedeckt Gesicht mit Händen

Beklemmung Lippen ziehen Lippen beißen Herabhängende Lider Geschlossene Augen Augen bewegen sich rechts/links/oben/unten

Hände zusammengepresst Fingerspitzen tippen auf Tisch Nägel beißen Kopf neigt sich /links/rechts/oben/unten

Glück Ecken der Lippen nach hinten und oben gezogen Mund geöffnet/ohne Zähne zu zeigen/backen nicht erhöht Unteres Augenlied zeigt Falten darunter Falten um äußere Ecken der Augen

Körper geweitet Hände klatschen Arme gehoben oder mit Fäusten vom Körper gesteckt

Ekel Oberlippe erhöht Unterlippe erhöht und zur Oberlippe gedrückt, oder gesenkt Nase gerunzelt Backen erhöht Brauen nach unten gezogen

Hände nah am Körper Rückwärtsbewegung Richtungswechsel / Bewegung nach rechts oder links Rückwärtsbewegung, Hände bedecken Kopf

Rückwärtsbewegung, Hände bedecken Nacken Rückwärtsbewegung, rechte/linke Hand auf dem Mund Rückwärtsbewegung, rechte/linke Hand nach oben bewegt

Langeweile Herabhängende Lider Geschlossene Augen Lippen ziehen

7

Page 16: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2Hintergrund

zuEm

otionenTabelle 2.4 – Überblick über Körperbewegungen und Haltungen [Wal98]

Emotion Oberkörper Schultern Kopf Arme Hände Bewegungsausprägung

Unterschiede zu beobachteten Standardbewegungen und Körperhaltungen, wobei die Standardbewegung ist:

Aufrecht Hängend Richtung Kamera Hängend Keine speziellen Aktivitäten

Keine spezielle Bewertung

Kalte Wut Hoch Nach vorne gestreckt

Seitliche Bewegungen

Kochende Wut Hoch Nach vorne gestreckt

Seitliche Bewegungen, Zeigen, öffnen/schließen, Handaußenseiten seitwärts, viele Gesten

Hohe Bewegungsaktivität, ausgeprägte Bewegungen, hohe Bewegungsdynamik

Beschwingte Freude Hoch Nach hinten Nach vorne oder oben gestreckt

Öffnen/schließen, viele Gesten

Hohe Bewegungsaktivität, ausgeprägte Bewegungen, hohe Bewegungsdynamik

Glück Geringe Bewegungsdynamik Ekel Gedrückt Nach hinten oder

vorne Nach unten Vor Brust

verschränkt Unausgeprägte Bewegungen

Verachtung Geringe Bewegungsaktivität Traurigkeit Gedrückt Geringe Bewegungsdynamik Verzweiflung Nach vorne Öffnen/schließen Ausgeprägte Bewegungen Furcht Öffnen/schließen,

viele Selbstmanipulatoren

Schrecken Seitlich weggestreckt

Hohe Bewegungsaktivität

Scham Gedrückt Nach unten Viele Selbstmanipulatoren

Interesse Nach vorne gestreckt

Seitliche Bewegungen

Stolz Nach hinten Vor Brust verschränkt

Langeweile Gedrückt Nach hinten Geringe Bewegungsaktivität, unausgeprägte Bewegungen, geringe Bewegungsdynamik

8

Page 17: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.3 Erkennung von Emotionen

Wie bereits erwähnt, sind Gesichtsausdrücke möglicherweise für die Emotionsdarstellungund Emotionserkennung noch wichtiger, als die Körperhaltung. Die dargestellten Emotionenbestehen aus verschiedenenGesichtsausdrucksteilen, von denen allerdings nur eine bestimmteTeilmenge zur Erkennung der Emotion benötigt wird. [Koh+04]Glückliche Gesichter bestehen in der Regel aus nach oben gezogenen inneren Augenbrauen,

sowie verengten unteren Augenlidern, angehobenenWangen und einer angehobenenOberlippemit nach oben gewinkelten Mundwinkeln. Zur Erkennung davon werden allerdings nur erhöhteWangen und verengte Lider benötigt. [Koh+04]Auf Traurigkeit können Stirnrunzeln, offenerMundmit nach oben gezogener Oberlippe, nach

außen und unten gezogene Lippen und ein hoch gezogenes Kinn hindeuten. Zur Erkennungnötig sind allerdings nur eine nach unten gezogene Braue, sowie das erhöhte Kinn. [Koh+04]Für Wut stehen entweder Stirnrunzeln, oder nach unten gezogene Augenbrauen, mit weit

geöffneten Augen und angespanntem unteren Augenlied, nach oben gezogener Oberlippe, diegemeinsammit einer nach unten gezogenen Unterlippe die Zähne zeigt. Zur Erkennungwerdenallerdings die geöffneten Augen, sowie die nach unten gezogenen Augenbrauen und nach untengezogene Lippe benötigt. [Koh+04]Furcht wird am besten bei geöffnetem Mund in Kombination mit nach oben gezogenen Au-

genbrauen, sowie manchmal mit geweiteten Nasenlöchern, erkannt. [Koh+04]Mit demAbschluss der Erklärung zuBestandteilen einigerwichtiger Emotionen kann imnächs-

ten Abschnitt dazu übergegangen werden zu erklären, wie diese Bestandteile benötigt werdenum die Emotion zu erkennen.

2.3 Erkennung von Emotionen

Nachdem nun erklärt wurde, woraus Emotionen bestehen und auch die Emotionserkennungbereits kurz angerissen wurde befasst sich dieser Teil mit der Erkennung und erklärt, wiesoman sich bei der Emotionsdarstellung nicht nur auf den Körper, oder das Gesicht konzentrierensollte.Die Erkennung von Emotionen geschieht in mehreren Schritten. Auf die ursprüngliche Dar-

stellung der Emotion erfolgt vom Gegenüber ein Musterabgleich mit bekannten Gesichtsaus-drücken, oder Körperhaltungen. Nach diesemAbgleichwird dieses bekannteMuster einer Emo-tion zugeordnet, wobei das Vorwissen über die Situation hilft Missverständnissen vorzubeu-gen [Hes01]. Ein weiterer hilfreicher Faktor bei der Erkennung ist auch das Vorwissen über diePerson. So erkennen zum Beispiel langjährige Freunde, oder Partner die gegenseitigen Emotio-nen besser, als Fremde. Das liegt daran, dass Freunde oft die Möglichkeit haben das Verhaltenihres Gegenübers zu beobachten und durch Gespräche ein besseres Verständnis dafür zu ent-wickeln. [CVI97] Dies geht sogar so weit, dass Partner nach einer Weile annehmen, dass sie dieEmotionen des anderen in bestimmten Situationen kennen, ohne ihn anzusehen. [Hes01]In der Forschung lag der Fokus bei der Emotionserkennung lange Zeit auf den Gesichtern.

Eine mögliche Erklärung dafür könnte sein, dass das Gesicht in der westlichen Welt als Fensterzur Seele gesehen wird und als primäres Erkennungsziel für Gedanken und Gefühle gilt. Dieskönnte daran liegen, dass Gesichter Emotionen schnell, automatisch und unbewusst darstellen,weshalb der Mensch intuitiv das Gesicht zur Emotionserkennung betrachtet. Eine viel weiterzurückreichende Erklärung dafür wäre der Geist-Körper Dualismus der von Descartes geprägtwurde. Diese Theorie besagt, dass die Natur des Geistes vollkommen unterschiedlich zu der desKörpers sei. Im Bezug auf Emotionsdarstellung nimmt dabei das Gesicht die Rolle des Geistes

9

Page 18: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2 Hintergrund zu Emotionen

undMentalen ein, während der Körper die Rolle einerMaschine hat und aufgrund des fehlendenGeistes keine Emotionen ausdrücken kann. [Gel09]DeGelder schlägt außerdem vor, dass man aufgrund der unterschiedlichen Natur zwischen

Gesichtsausdrücken und Körperbewegungen bei der Emotionsdarstellung und -erkennung un-terscheiden muss. Aufgrund der besseren Erkennbarkeit über größere Entfernung von Kör-perbewegungen schlägt er vor, dass das Gesicht hauptsächlich für die Darstellung der Befind-lichkeit der Person verantwortlich sei. Körperbewegungen im Gegensatz dazu spiegeln die Ak-tionen, oder Aktionsvorhaben einer Person oder Gruppe wider. [Gel09] Wie eine Studie vonMeeren et al. zeigt, darf man Emotionen allerdings nicht nur an Gesichtsausdrücken, oder Kör-perbewegungen festmachen, sondern muss immer auch den Kontext betrachten. In der Studiekombinierten Meeren et al. wütende und ängstliche Gesichtsausdrücke mit ängstlichen undwütenden Körperbewegungen. Die Probanden wurden angehalten sich auf die Gesichtsaus-drücke der Emotionsdarsteller zu konzentrieren und zu sagen, ob diese ängstlich oder wütendsind. Bei nicht übereinstimmendenGesichtsausdrückenmit Körperhaltungen, also zumBeispieleinem ängstlichen Gesicht, auf einem wütenden Körper tendierten die Benutzer zur Emotiondes Körpers. [MHG05] Die Aussage dieser Studie lässt sich allerdings nicht für alle Emotionenverallgemeinern. So gibt es beispielsweise Emotionen, die hauptsächlich über das Gesicht, oderüber den Körper dargestellt werden. Beispiele hierfür wären Ekel, oder Wut, als Gesichts-, bzw.körperdominante Emotionen (s. Tabelle 2.4).Allerdings werden auch unter Berücksichtigung des ganzen Körpers selten Erkennungsraten

über 80% erreicht. [Gel09]

2.4 Emotionen bei Robotern

Abbildung 2.1 – Uncanny Valley [Mor70]

10

Page 19: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.4 Emotionen bei Robotern

Im Kontext der häufigen sozialen Interaktion zwischen Roboter und Mensch, wie zum Bei-spiel in der häuslichen Pflege, hat menschliches Aussehen und Verhalten einen sehr großenStellenwert [Dau99]. Für diese Pflege-, bzw. Hilfsroboter stellt Dautenhahn drei Thesen auf:

These 1: Thesen zur Gestaltung von Hilfsrobotern [Dau02]

1. Die Roboter sollen für oder zusammen mit Menschen arbeiten; sie übernehmen Rol-len und Aufgaben, die normalerweise von Menschen ausgeführt werden und solltendeshalb eine menschliche Form von (sozialer) Intelligenz besitzen

2. Menschen interagieren liebermit anderenMenschen, oder zumindestmitmenschen-ähnlichen Robotern. Deshalb besteht die Hoffnung, dass menschenähnliche Roboterauf natürliche Art undWeise in die menschliche Arbeit integriert werden können, wiezum Beispiel als Assistenten, oder Haustiere

3. Menschenähnliche Roboter können als Modelle für die Forschung von Tierverhalten,oder tierischem Verstand dienen

Ein Problem, das bei der Entwicklung menschenähnlicher Roboter allerdings auftritt ist dasUncanny Valley, im Deutschen auch Akzeptanzlücke genannt. Mori stellte fest, dass mit zuneh-mend menschlichem Aussehen von Robotern unsere Vertrautheit zu ihnen ansteigt. Ab einemgewissen Punkt dieser Ähnlichkeit können wir auf den ersten Blick nicht mehr unterscheiden,ob es sich um einen Mensch, oder einen Roboter handelt. Wenn wir dann davon ausgehen, dasswir einem Menschen gegenüberstehen und uns dementsprechend verhalten, aber dann fest-stellen, dass es sich um einen Roboter handelt bekommen wir ein unheimliches Gefühl. DiesesGefühl ist das Uncanny Valley in Abbildung 2.1 [Mor70]. Ein Beispiel für einen solchen Roboterist der in Abbildung 2.3 dargestellte Roboter KASPAR, der bei vielen erwachsenen Menscheneine Art Unbehagen auslöst.AufgrunddesWunsches nach InteraktionmitmenschenähnlichenRobotern stellt sich zwangs-

weise die Frage, wie man diese Roboter im Kontext des Uncanny Valley gestalten muss, um die-ses so weit wie möglich zu verringern. Eine Lücke, zwischen der Erwartung der Menschen aneinen menschenähnlichen Roboter und dessen tatsächlichen Fähigkeiten ist mit Sicherheit dieFähigkeit Emotionen darstellen zu können. Infolgedessen, und auch wegen der dadurch erhöh-ten Bindung zwischen Mensch und Roboter, ist Emotionsdarstellung ein sehr häufig behandel-tes Gebiet der Forschung [Cam+15]. Dies zeigen auch zahlreiche Papers und Entwicklungen, diein diesem Abschnitt vorgestellt werden sollen.

IromecIromec wurde als Spielkamerad für behinderte Kinder entwickelt um spielerisch motorische,oder soziale Fähigkeiten zu lernen (siehe Abbildung 2.2). Er besteht aus einer Box mit Rädernund einem Display, das ein stilisiertes Gesicht darstellt, über welches der Roboter Emotionendarstellen kann. Mit diesen Emotionen wird Feedback zu den verschiedenen Spielszenarien ge-geben. [Mar10]

KasparEin weiterer Beitrag auf dem Gebiet der Lernroboter für autistische Kinder ist KASPAR (sie-he Abbildung 2.3). Er wurde dazu entwickelt Kindern zu helfen Emotionen zu erkennen undzwischenmenschliche Interaktion zu lernen. Er ist ein humanoider Roboter mit dem Aussehen

11

Page 20: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2 Hintergrund zu Emotionen

Abbildung 2.2 – Iromec [Mar10]

Abbildung 2.3 – Lernroboter KASPAR[Dau+09]

Abbildung 2.4 – AltenpflegeroboterParo [Shi12] Abbildung 2.5 – Pflegeroboter Huggable

[Sti+09]

eines jungen Kindes und der Fähigkeit Emotionen wie Freude, Traurigkeit und Überraschungdarzustellen. [Dau+09]

ParoEin wichtiger Forschungsbeitrag auf dem Gebiet der Pflege demenzkranker Patienten ist derseit 2005 in mehreren Ländern erfolgreich eingesetzte Roboter Paro (siehe Abbildung 2.4). SeinHauptziel ist es die Patienten zumKuschelnmit ihm zu animieren. Er hat denKörper eines Baby-Seelöwen und die Körpertemperatur eines Säugetiers. Er reagiert auf Berührung und sprachli-che Zuwendung mit verschiedenen Körperbewegungen und Tiergeräuschen. [Wad+03] Durchdiese Interaktion und die Ähnlichkeit zu echten Tieren, die vergangene Emotionen und Erin-

12

Page 21: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.4 Emotionen bei Robotern

nerungen in Demenzpatienten hervorrufen hilft Paro dabei, dass Patienten mit Angehörigenreden. In einem Fall konnte durch Paro ein sehr unruhiger Patient beruhigt werden und seineVersuche die Einrichtung zu verlassen gestoppt werden. [Shi12]

HuggableHuggable ist ein weiterer Roboter für den Einsatz in der Altenpflege (siehe Abbildung 2.5). Erwurde nach dem Aussehen eines Teddybärs gestaltet um einerseits etwas Familiäres zu bieten,andererseits aber keine Erwartungen an sein Verhalten auszulösen, da Teddybären sich nor-malerweise gar nicht bewegen. Er besitzt eine berührungsempfindliche Haut, ein Mikrophonim Mund und Kameras in den Augen. Zur Emotionsausgabe dienen ihm ein Lautsprecher, so-wie sein Bewegungsapparat über den er Augenbrauen, Ohren und Schultern bewegen kann.Durch seine Kameras kann er in der Altenpflege helfen den emotionalen Zustand der Patien-ten zu erkennen. Dies geschieht normalerweise indem Pfleger überwachen wie die Patientenmit Stofftieren umgehen. Diese zeitraubende Beobachtung könnte durch die Aufnahmefähig-keit des Huggables deutlich erleichtert werden.

Abbildung 2.6 – Nao beim Robocup 20061

NAOEin häufig verwendeter Roboter im Bereich der Emotionsdarstellung bei Robotern ist NAO (sie-he Abbildung 2.6). Wegen seiner geringen Anschaffungskosten und einfachen Erweiterung, so-

1https://upload.wikimedia.org/wikipedia/commons/4/47/Nao_Robot_%28Robocup_2016%29.jpg

13

Page 22: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2 Hintergrund zu Emotionen

wie relativ leicht zu programmierenden Körperbewegungen ist er für die Emotionsforschunggut geeignet. [Gou+09]

Abbildung 2.7 – Daryl führt die Emotion glücklich sein aus [Emb+12]

DarylDaryl ist ein leicht humanoid aussehender Roboter (siehe Abbildung 2.7). Er wurde unter derPrämisse entwickelt, dass eine glaubhafte Interaktion zwischenMensch und Roboter am bestengelingt, wenn die Kommunikations- und Emotionsformen des Roboters spezifisch für ihn undnicht nur nachgemachtemenschliche Emotionen sind. Zur Emotionsdarstellung kann er fahren,den Kopf sowie seine Ohren bewegen und er hat eine Farb-LED im Rumpf.

Abbildung 2.8 – Unterhaltungsroboter Cozmo der Firma Anki [Coz]

CozmoEine relative neue Erfindung in der Unterhaltungsindustrie ist der von Anki entwickelte Co-zmo [Ank] (siehe Abbildung 2.8). Er ist eine ca. 20 cm große Planierraupe mit Gesicht anstatteiner Frontscheibe. Über dieses Gesicht stellt er während dem Spielen mit ihm verschiedeneEmotionen dar. Über seine Emotionen will er Kinder dazu anregen ihn zu füttern, mit ihm zuspielen, oder sich anderweitig um ihn zu kümmern. Durch die große Ähnlichkeit zu bekanntenRobotern aus Pixar-Filmen und die gute Emotionsdarstellung entstand eine kleine Subkultur,die durch die offene SoftwareDevolpment Kit (SDK) neue Verhaltensweisen programmierte unddiese in YouTube-Videos zur Schau stellte.

14

Page 23: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

2.5 Zusammenfassung

2.5 Zusammenfassung

In diesem wurde gezeigt, dass es keine allgemein gültige Definition von Emotionen gibt. Viel-mehr wurden verschiedene Ansätze vorgestellt, mit denen versucht wird die Aufgaben und Be-standteile von Emotionen zu erklären. Dabei wurde auch deutlich, dass Emotion nicht gleichEmotion ist. So gibt es mit den grundlegenden Emotionen eine kleine Untergruppe an Emotio-nen, die Ekman [Ekm92] zu Folge nicht nur der Mensch, sondern auch alle höher entwickeltenTiere besitzen, da sie für das Überleben und die Kommunikation essenziell notwendig sind.Nachdem kurz gezeigt wurde wie Emotionen erkannt werden, wurden einige wichtige Beiträgeauf dem Gebiet der emotionsfähigen Roboter gezeigt. Im nächsten Kapitel wird nun erläutert,wie die gezeigten Bestandteile von Emotionen in ein Modell gebracht werden können, das esermöglichen soll Emotionen auf möglichst vielen Robotern erfolgreich darzustellen.

15

Page 24: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 25: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen aufRoboter

Mit den oben genannten Emotionsbestandteilen wird nun in diesem Kapitel ein Modell entwi-ckelt, durch das Emotionen auf verschiedene Roboter übertragen werden können. Dabei sollenkörperliche Einschränkungen des Roboters, sowie einemöglichstmultimodale Ausgabe berück-sichtigt werden. Um dieses Ziel zu erreichen wird im Folgenden zuerst darauf eingegangen,wieso ein universelles Modell sinnvoll ist, welche Anforderungen ein Emotionsmodell erfüllenmuss und wie dieses zur Implementierung verwendet werden kann. Außerdem wird gezeigt,wie eine mögliche Modellnotation aussehen kann und anhand dieser Notation Modelle für dieEmotionen Wut, Angst, Beklemmung, Glück, Ekel, Traurigkeit, Überraschung und Unsicherheitangefertigt.

3.1 Universelle Emotionsmodelle als Hilfe für Entwickler

Wie bereits in der Einleitung erwähnt sind Emotionen für ein gutes Zusammenleben zwischenMensch und Roboter entscheidend. Da die Emotionsmodellierung und die benötigten Tests, umdie erstellten Emotionen zu testen sehr aufwendig, zeitintensiv und damit mit hohen Kostenverbunden sind, ist es eine große Hürde Emotionen für Roboter zu implementieren. Emoti-onsmodelle bieten hier einen Ansatz diesen Schritt um ein vielfaches einfacher zu gestalten.Ein einmal erstelltes universell einsetzbares und getestetes Modell eliminiert die Anforderungein Team zu engagieren, dass Emotionsbestandteile analysiert und auf den Roboter anpasst.Stattdessen genügt ein, oder mehrere Entwickler, die nach konkreten Vorgaben die im Modellvorgegebenen Bewegungen implementieren müssen um erkennbare Emotionen zu produzie-ren.

3.2 Anforderungen an ein Emotionsmodell

Bevor gezeigt wird, wie Emotionen in Modellen dargestellt werden können, muss zunächst er-klärt werden, welche Eigenschaften sie mitbringen müssen und wie sie anschließend am bes-ten dargestellt werden können. Eine Anforderung an ein Emotionsmodell ist es darstellen zukönnen, welche Körperteile welche Bewegungen ausführen können. Eine andere wichtige An-forderung ist diese Bewegungen mit verschiedenen Bedingungen versehen zu können, die dasZusammenspiel der Bewegungen genau regeln. Nachfolgendwerden diese Bedingungen erklärt.

VerknüpfungenBetrachtet man die Tabellen 2.2 und 2.3 sieht man, dass verschiedene Bewegungen, oder Ge-sichtsausdrücke zusammen vorkommen. Diese Bewegungen, oder sprachlichen Attribute müs-sen dann immer gemeinsam, gleichzeitig ausgeführt werden. Dies bedeutet auch, dass sobaldeines der beteiligten Körperteile nicht vorhanden ist, oder aus anderen Gründe eine der Bedin-gungen aus der Verknüpfung nicht ausgeführt werden kann, der andere Parameter nicht allein

17

Page 26: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

ausgeführt werden darf. Ein Beispiel dafür wäre Brauen gesenkt und zusammengezogen bei derEmotion Wut.

AusschlüsseDas genaue Gegenteil der Verknüpfungen sind Ausschlüsse. Dabei dürfen bestimmte Eigen-schaften nicht gemeinsam vorkommen. Dies ist vor allem wichtig um widersprüchliche Anwei-sungen an den Roboter zu vermeiden. So sieht man zum Beispiel in Tabelle 2.2 und 2.3, dass vie-le Emotionen aus mehreren unterschiedlichen Handbewegungen bestehen, oder ausgedrücktwerden können. Da allerdings immer nur eine der Bewegungen zu einer Zeit ausgeführt werdenkann ist es wichtig solche Fälle auszuschließen.

ImplikationenNeben den bereits genannten Bedingungen gibt es noch Implikationen. Diese sind ähnlich zuVerknüpfungen, indem sie besagen, dass wenn ein Attribut vorkommt, ein anderes auch vor-kommen muss. Allerdings gilt diese Bedingung nur in eine Richtung. Ein Beispiel hierfür wäredie Öffnung des Munds bei Überraschung. Darwin [Dar97] sagt, dass sobald der Mund geöffnetwird die Augenbrauen in gleichem Maß nach oben gezogen werden müssen. Allerdings mussnicht unbedingt der Mund geöffnet werden, wenn die Augenbrauen nach oben gezogen wer-den.

Zwingende VoraussetzungenZwingende Voraussetzungen beschreiben Eigenschaften, ohne die eine Emotion nicht darge-stellt werden kann. Sollte ein Roboter eine zwingende Voraussetzung nicht erfüllen und aus-führen können, kann er somit die Emotion nicht darstellen, weil diese ohne diese Eigenschaftnur sehr schwer, oder gar nicht erkannt werden kann. Ein Beispiel dafür wäre Ekel, eine Emo-tion, die hauptsächlich durch Bewegungen um den Mund ausgedrückt wird [Dar97]. Betrachtetman Tabelle 2.2 und 2.3 sieht man auch, dass wenig aussagekräftige Bewegungen mit Ekel ver-bunden werden. So kann die Rückwärtsbewegung, oder der Richtungswechsel auf für Furchtstehen. Weil es sonst keine Bewegungen des Körpers gibt, die nur bei Ekel auftreten und somiteine eindeutige Abgrenzung von anderen Emotionen ermöglichen, ist es zwingend notwendigGesichtsausdrücke darstellen zu können.

VoraussetzungwennmöglichNeben zwingenden Voraussetzungen gibt es auch noch eine abgeschwächte Form von Voraus-setzungen. Diese Eigenschaften müssen vom Roboter erfüllt werden, wenn er die Möglichkeitdazu hat. Das heißt die Emotion kann theoretisch auch ohne eine Eigenschaft mit dem AttributVoraussetzung wenn möglich dargestellt werden, wird aber mit dieser Eigenschaft womöglichbesser, oder leichter erkannt. Dies ist das Basisattribut, das jede im Emotionsmodell darge-stellte Eigenschaft besitzt, sofern keine andere angegeben wurde. Das heißt der Roboter sollversuchen so viele Eigenschaften wie möglich darzustellen, solange dies nicht gegen andere indiesem Abschnitt beschriebene Regeln, die auf die Eigenschaft zutreffen, verstoßen würde.

KardinalitätenEine Erweiterung von Ausschlüssen sind Kardinalitäten. Im einfachsten Fall bestehen diese ausor, bzw. xor Verknüpfungen, spiegeln also oder bzw. entweder, oder Beziehungen wieder. Dane-ben gibt es noch konkrete Kardinalitäten mit minimal und maximal Werten. Diese werden über

18

Page 27: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.3 Feature-Modelle als Notationsansatz

eine konkrete Menge in der Notation [n..m] festgelegt, wobei n der Minimal- und m der Maxi-malwert ist. Damit wird festgelegt, wie viele Eigenschaften einer Kategorie ausgeführt werdensollen und es kann sichergestellt werden, dass eine bestimmte Anzahl an Eigenschaften einerKategorie erfüllt sein müssen ohne eine spezielle Eigenschaft zu benennen. So kann zum Bei-spiel festgelegt werden, dass genau eine Handbewegung ausgeführt werden soll, oder maximalzwei Eigenschaften im Gesicht um das Entstehen einer Grimasse zu vermeiden. Gleichzeitigwird dadurch aber auch verhindert, dass zu viele Eigenschaften einer Kategorie ausgeführt wer-den, was zu hektischen oder überladenen Bewegungen führen könnte, die die Erkennung derEmotion beeinträchtigen könnten.

Einteilung in KategorienWeiterhin ist es wichtig Kategorien undUnterkategorien darstellen zu können um eine einfacheZuordnung von Bewegungen zu Körperteilen zu ermöglichen und die oben genannten Bedin-gen an die jeweils übergeordnete Ebene zu propagieren. Dabei sind die Kategorien die einzelnenKörperteile, wie zum Beispiel Gesicht, oder Hände und die Unterkategorien, dann zum BeispielAugen. In diesen Kategorien, oder Unterkategorien stehen konkrete Anweisungen, die vom Ro-boter ausgeführt werden sollen.

ErsatzbewegungenUm möglichst viele Roboter unterstützen zu können ist es wichtig eine möglichst breit gefä-cherte Auswahl an Bewegungen für eine Emotion zu unterstützen. Da Roboter nicht immeralle Körperteile besitzen, die für eine Emotionsdarstellung benötigt werden ist es sinnvoll eineMöglichkeit zu bieten um bestimmte Bewegungen durch andere ersetzen zu können.

3.3 Feature-Modelle als Notationsansatz

UmEmotionsmodelle computergestützt und automatisiert in Emotionen bei Robotern umwan-deln zu können musste eine Modellstruktur gefunden werden, welche die in Abschnitt 3.2 ge-nannten Bedingungen darstellen und computerlesbar machen kann. Außerdem müssen sichdamit trotz der Variabilität im Aufbau und Funktionsumfang verschiedener Roboter zuverlässigerkennbare Emotionen modellieren lassen. Eine bereits eingesetzte Struktur, die viele dieserEigenschaften mitbringt sind Variabilitätsmodelle, oder im Speziellen Feature-Modelle.In ihrer ursprünglichen Form werden Feature-Modelle verwendet um Variationen von Soft-

wareproduktlinien, oder anderen Produktlinien darzustellen und diese auf deren Validität zuüberprüfen. Um dies zu erreichen besteht ein Feature Modell aus den benötigten Eigenschaf-ten einer Produktlinie und deren Beziehungen untereinander. Diese Beziehungen zeigen, wiedie einzelnen Eigenschaften zueinander gehören und werden meist durch eine Baumstrukturrepräsentiert. Feature-Modelle besitzen außerdemeineNotation zurDarstellung von verpflich-tend auftretenden Eigenschaften. Dies wird meist durch einen ausgefüllten Punkt über der Ei-genschaft dargestellt (siehe Abbildung 3.1). Optional auftretende Eigenschaften werden durcheinen nicht ausgefüllten Kreis dargestellt. Eine Erweiterung der FODA-Notation der Feature-Modelle sind Kardinalitätsbasierte Feature-Modelle. Diese Kardinalitäten beschreiben, wie vieleEigenschaften einer Kategorie auftreten dürfen. Dies wird ähnlich wie bei UML-Modellen an-hand von Multiplizitäten dargestellt (siehe Abbildung 3.1). [Kan+90], [MM15]Eine weitere Möglichkeit der Einschränkung besteht aus Aussagenlogischen Verknüpfungen

einzelner Attribute (siehe Abbildung 3.1). Dadurch ist es möglich bestimmte Eigenschaften als

19

Page 28: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

Abbildung 3.1 – Beispiel eines zum Emotionsmodell erweiterten Feature Modells

verpflichtend zu setzen, sobald eine andere Eigenschaft auftritt, oder das gemeinsame Vorkom-men zweier Eigenschaften zu verhindern, bzw. diese aneinander zu binden. [MM15]Ein Vorteil der Verwendung von Feature-Modellen ist, dass ein Großteil der in Abschnitt 3.2

genannten Regeln und Strukturen für den Aufbau bereits existiert und einen Leitfanden bietet,an demman sich bei der Erstellung orientieren kann. Außerdem gibt es bereits Editoren, die dieErstellung des Modells vereinfachen. So zum Beispiel die featureIDE der Uni Magdedburg [Uni].Ein eclipse Plugin mit dem schnell und einfach Modelle, in übersichtlicher graphischer Darstel-lung mit Bedingungen, erstellt werden können und das automatisch eine Extensible MarkupLanguage (XML)-Datei der Baumrepräsentation mit Bedingungen erstellt, welche für die Im-plementierung der Emotionen verwendet werden kann. Dieser Schritt wird in Abschnitt 3.6genauer erklärt.

20

Page 29: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.4 Erweiterung des Feature-Modells zum Emotionsmodell

3.4 Erweiterung des Feature-Modells zum Emotionsmodell

Nachdem die in Abschnitt 3.3 beschriebenen Anforderungen feststehen, wird schnell deutlich,dass Feature-Modelle und im speziellen Kardinalitätsbasierte-Feature-Modelle bereits einenGroßteil dieser Anforderungen erfüllen. So können die benötigten Körperteile der Emotions-modelle durch die Kategorien der Feature-Modelle dargestellt werden und die genauen Aus-prägungen der Kategorien, also deren Kindelemente werden in Emotionsmodellen zu Bewe-gungen des übergeordneten Körperteils. In dem in dieser Arbeit vorgeschlagenen Modell sinddiese Körperteile alle für die Emotionsdarstellung beim Menschen verwendeten Körperteile,bestehend aus Kopf, Gesicht, Händen, Oberkörper, Armen und dem ganzen Körper. Neben die-sen sind auf der obersten Ebene noch die Bewegungsart und Sprache. Die Bewegungsart dientdazu, zu bestimmen wie viele Bewegungen bei einer Emotion ausgeführt werden sollen, alsowie schnell der Roboter zwischen einzelnen Bewegungen wechselt. Außerdem wird darüberdie Bewegungsgeschwindigkeit geregelt.Die Bewegungen des Emotionsmodells sind in einer separat definierten Menge aus mögli-

chen Bewegungen (siehe Anhang A.1) festgehalten. DieseMenge existiert um zu vermeiden, dassfür eine bestimmte Bewegung mehre Anweisungen in verschiedenen Modellen existieren, waszu doppelter Implementierung führen könnte. Eine Ausnahme für Bewegungen in der zweitenEbene bildet allerdings das Gesicht, bei dem die ersten Unterpunkte über den Bewegungen dieAugen, Mund, Lippen und Augenbrauen sind. Diese weitere Unterteilung wurde vorgenommen,da es sich dabei um eine logische Gruppierung handelt. Außerdem kann auf dieseWeise schnelleine große Gruppe an Bewegungen ausgeschlossen werden, wenn ein Roboter kein Gesicht be-sitzt.Die Anforderung, dass ein Emotionsmodell Kardinalitäten darstellen können muss um Über-

ladungen von Bewegungen zu vermeiden, kann durch eine Darstellung, die von Kardinalitätsba-sierten Feature-Modellen stammt erreicht werden. In Verbindung mit den aussagenlogischenVerknüpfungen der traditionellen Feature-Modelle, die auch für das vorgeschlagene Emotions-modell verwendet werden, kann somit genau festgelegt werden, welche Bewegungen mitein-ander vorkommen dürfen, oder nicht. Befindet sich bei einem Körperteil keine Kardinalität sollnur eine Bewegung ausgeführt werden. Dies wird vorgeschlagen, da eine Bewegung der Stan-dardfall ist und somit durch das Weglassen der Kardinalität die Übersichtlichkeit des Modellsverbessert werden kann.Die Anforderung zur Darstellung von Körperteilen oder Bewegungen mit den Attributen ver-

pflichtend und verpflichtend, wennmöglich kann ebenfalls über bereits in Feature-Modellen vor-handenen Notationen erfolgen. Während verpflichtend eins zu eins übernommen werden kannwird aus dem optional Attribut der Feature-Modelle im vorgestellten Emotionsmodell verpflich-tend, wenn möglich, weil es dort keine optionalen Attribute gibt.Ersatzbewegungen existieren in herkömmlichen Feature-Modellen zwar nicht, können aber

relativ einfach in die Aussagenlogischen Verknüpfungen integriert werden. Die letzte Verknüp-fung in Abbildung 3.1 zeigt wie eine solche Ersatzbewegung dargestellt werden könnte. Die Be-wegung links des „?“ stellt die eigentlich gewünschte Bewegung dar und rechts steht die Bewe-gung, die ausgeführt werden kann, falls die eigentliche Bewegung nicht möglich ist.

3.5 Modelle der einzelnen Emotionen

Nachdem im letzten Abschnitt erklärt wurde, woraus ein Emotionsmodell besteht und wie die-ses verarbeitet werden kann, sollen nun in diesem Abschnitt beispielhaft Emotionsmodelle für

21

Page 30: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

einige Emotionen vorgestellt werden. Zuerst werden dafür die Emotionen vorgestellt und er-klärt, welche Körperteile und Bewegungen dafür benötigt werden und wie diese an der Emoti-onsdarstellung beteiligt sind. Im Anschluss an diese Erklärungen sind die graphischen Notatio-nen dieser Emotionen zu finden.Als Beispielmodelle sollen die grundlegendenEmotionen Freude,Wut, Ekel, Angst, Traurigkeit

und Überraschung dienen, sowie die nicht grundlegenden Emotionen Beklemmung und Unsi-cherheit. Diese Emotionen wurden gewählt, da aufgrund der großen Bedeutung der grundle-genden Emotionen im Alltag diese unbedingt berücksichtigt werden müssen. Die beiden Emo-tionen Unsicherheit und Beklemmung wurden ausgewählt, da dazu viel Material zu typischenBewegungen und Mimik während dieser Emotionen verfügbar ist und somit auch Emotionengetestet werden können, die sich nur gering unterscheiden und wahrscheinlich aufgrund desfehlenden Kontextes nur schwer erkennbar sein werden.Zu beachten ist, dass sich die Minimalkonfigurationen der Modelle an die im Rahmen dieser

Arbeit gefundene und gesichtete Literatur der Emotionsdarstellung hält. Da es zu Emotions-modellen bisher noch keine Literatur gibt und die gefundenen Arbeiten meist lediglich Beob-achtungen enthalten, woraus die Emotionen beimMenschen bestehen, aber nicht erklären, wasfür die Erkennung unbedingt notwendig ist, entstanden Modelle, deren Minimalkonfigurationnicht erkennbare Emotionen produzieren könnte. So zumBeispiel dasModell für Angst, das lautModell ohne Bewegung möglich ist. Deshalb ist es bei den erstellten Modellen wichtig, so vieleder Bewegungen umzusetzen um eine bestmögliche Erkennung zu gewährleisten.

3.5.1 Wut (grundlegende Emotion)

Betrachtet man die Tabellen 2.2, 2.3 und 2.4 sieht man, dass Wut eine Emotion aus vielen Be-wegungen und relativ ausdrucksstarken Gesichtsausdrücken ist.Im Gesicht wird die Emotion vor allem über die Augenbrauen dargestellt. Durch das Senken

und Zusammenziehen entstehen beim Menschen Falten zwischen den Augenbrauen. Da dasentscheidende Merkmal zur Erkennung allerdings die Position der Augenbrauen und nicht diedaraus resultierenden Falten sind, können diese Falten für ein Robotermodell vernachlässigtwerden. Sollte der Roboter keine individuell beweglichen Lippen haben, lassen sich die zusam-mengepressten Lippen auch über einen geschlossenen und lang gezogenen Mund, beispiels-weise als Strich bei einem Gesicht, das nur aus einem Display besteht, darstellen. Da außer inder Emotionsdatenbank FABO 2.2 nirgends nach oben gezogene Mundwinkel als Merkmal fürWut zu findenwaren, wurde diesesMerkmal für die in dieser Arbeit erstelltenModelle ignoriert.Während eine Person wütend ist führt sie viele Gesten mit der Hand aus. Dabei muss man

allerdings unterscheiden, ob es sich um kalte, oder kochende Wut handelt. Während bei ko-chender Wut viele schnelle Bewegungen, wie zum Beispiel Fäuste schütteln und mit dem Fin-ger auf jemanden zeigen dominieren, besteht die kalte Wut aus weniger und langsameren eherstatischen Gesten, wie zum Beispiel nur geballten Fäusten ohne Bewegung (siehe Tabelle 2.4,oder [Dar97]). Tabelle 2.2 sagt, dass Menschen während sie wütend sind einen aufgeplusterten,oder geweiteten Oberkörper haben, aber Darwin [Dar97] reduziert das hauptsächlich auf einelatente schwelende Wut. Da nur wenige Roboter fähig sind ihren Brustkorb zu weiten und weilDarwin viel mehr Wert auf die Bewegung der Arme zur Emotionsdarstellung legt, kann mandiese Eigenschaften ignorieren.Hat der Roboter die Möglichkeit zur Audioausgabe sollte diese entweder laut und schroff,

oder verzerrt sein. Eine weitere Möglichkeit ist, dass die Stimmte im Hals stecken bleibt, alsoein Abbrechen der Ausgabe während des Lautes. [Dar97]

22

Page 31: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.5 Modelle der einzelnen Emotionen

3.5.2 Angst (grundlegende Emotion)

Darwin konzentriert sich bei seiner Beschreibung von Angst vor allem auf die Gesichtsausdrü-cke. Bei ihm dominiert die Beschreibung mit geöffnetem Mund und Augen, sowie gehobenenAugenbrauen.Während diese Beschreibung der Gesichtsausdrücke noch sehr ähnlich zu Tabel-le 2.3 ist, unterscheiden sich beide bei der Körpersprache doch sehr stark. Darwin konzentriertsich in seinen Beispielen vor allem auf die blasse Hautfarbe und das Zittern, bzw. die extremstark angespanntenMuskeln, während in 2.3 viele Bewegungen der Hände beschriebenwerden,bei denen verschiedene Körperteile bedeckt, oder berührt werden um sich selbst zu schützen.Dieser Schutzmechanismus kommt bei Darwin auch vor, hat aber nur eine untergeordnete Rol-le, genau wie die anfängliche Bewegungslosigkeit mit anschließender Flucht. [Dar97]Die oben genannten körperlichen Symptome von Angst lassen sich fast eins zu eins für die

Stimme übernehmen. So lässt sich die beschriebene Bewegungslosigkeit auf ein Versagen, oderAbbrechen der Stimme übertragen. Darüber hinaus wird die Stimme als zittrig beschrieben.[Dar97]

3.5.3 Beklemmung

Beklemmung ist eine Emotion bei der wenig bis gar keine Bewegung stattfindet. Sie wird haupt-sächlich durch Körperhaltung, bei der die Schultern und der Kopf herabhängen dargestellt. Inder FABO steht weiterhin noch Nägel beißen als körperlicher Indikator. Bei der Mimik unter-scheiden sichDarwin und FABO sehr stark.Während bei beiden die herabhängenden Augenliderein Indiz für Beklemmung sind, stehen laut FABO auch noch geschlossene Augen und das Beißenan Lippen dafür. Darwin legt hingegen großen Wert auf eine gerunzelte Stirn in Kombinationmit herabhängenden Lidern und herabhängenden Mundwinkeln. [Dar97], [GP06]Die Stimme beklemmter Personen ist oft leise, zitternd, oder stotternd. Außerdem verlieren

sie oft ihre Stimme. [Cal]

3.5.4 Freude (grundlegende Emotion)

Das wohl untrüglichste Zeichen von Freude ist Lachen. Begleitet wird Lachen von nach hintenund oben gezogenen Mundwinkeln. Die Bewegungen während man glücklich ist, sind schnellund leicht, ohne großen Sinn, wie zum Beispiel klatschen, zur Faust geballte Hände die nachoben gestreckt werden, oder Tanzen. [Dar97], [GP06], [Wal98], [STW16]

3.5.5 Ekel (grundlegende Emotion)

Im Gegensatz zu den bereits genannten Emotionen, die sowohl über den Körper, als auch überdas Gesicht dargestellt werden können ist Ekel eine hauptsächlich gesichtsdominante Emoti-on. Deshalb ist es zwingend notwendig, dass der Roboter, der die Emotion darstellen soll eineArt Gesicht besitzt, das Lippen bewegen kann, da alle Körperbewegungen alleine eher für Angststehenwürden. Durch das Erhöhen derOberlippe und im Idealfall noch leichtesHerausstreckender Zunge entsteht dann die Gestik für Ekel. Die Körperbewegungen bestehen aus wenigen un-ausgeprägten Bewegungen, wie beispielsweise dem Bedecken des Munds mit der Hand, wie umein Übergeben zu verhindern, oder einem schnellen Richtungswechsel, bzw. einer Rückwärts-bewegung um der Ursache des Ekels zu entgehen. Begleitet werden die Bewegungen oft voneinem Zittern, oder Schaudern. [Dar97], [GP06], [Wal98]

23

Page 32: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

3.5.6 Traurigkeit (grundlegende Emotion)

Wie das Sprichwort „vor Trauer den Kopf hängen lassen“ bereits andeutet ist Traurigkeit eineEmotion die hauptsächlich über den hängenden, oder gebeugten Kopf dargestellt wird. Weiter-hin typisch sind die herabhängenden Mundwinkel, weshalb ein Gesicht für die Darstellung hilf-reich, aber nicht zwingendnotwendig ist, da der hängendeKopf bereits ausreicht. [GP06], [Wal98]

3.5.7 Überraschung (grundlegende Emotion)

Wie Ekel ist auch Überraschung eine Emotion, die hauptsächlich über das Gesicht dargestelltwird, weshalb auch dafür ein Gesicht mit Augen zwingend notwendig ist. Im Gegensatz zu Ekelsind allerdings für Überraschung vor allem die weit geöffneten Augen, bzw. nach oben gezo-genen Augenbrauen besonders wichtig. Hat das Gesicht neben den Augenbrauen einen Mundsollte dieser weit geöffnet werden. Dabei ist allerdings zu beachten, dass die Öffnung desMundsmit der Erhöhung der Augenbrauen übereinstimmen muss. Das heißt, je weiter der Mund ge-öffnet ist, desto weiter müssen auch die Augenbrauen erhöht werden. Dies gilt allerdings nurin diese Richtung, da die Augenbrauen auch ohne geöffneten Mund nach oben gezogen werdenmüssen. Körperbewegungen bei Überraschung bestehen hauptsächlich aus Berührungen anverschiedenen Stellen im Gesicht, oder einer schnellen Rückwärtsbewegung des ganzen Kör-pers. [Dar97], [GP06], [Wal98]

3.5.8 Unsicherheit

Unsicherheit ist eine Emotion, auf die viele verschiedene Bewegungen der Hände, bzw. Nei-gungen, des Kopfs deuten können, die allerdings alle einzeln und in geringer Bewegungsge-schwindigkeit auftreten. Schulterzucken gilt als universelle Geste, wennman etwas nicht weiß,weshalb es auch in diesem Modell nicht fehlen darf. Genau so ist ein wandern der Augen undverharren auf einem Punkt ein Ausdruck, der in vielen nachdenklichen Gesichtern zu sehenist. [GP06].

24

Page 33: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.5 Modelle der einzelnen Emotionen

Abbildung 3.2 – Modell der Emotion Wut

25

Page 34: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

Abbildung 3.3 – Modell der Emotion Angst

26

Page 35: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.5 Modelle der einzelnen Emotionen

Abbildung 3.4 – Modell der Emotion Beklemmung

27

Page 36: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

Abbildung 3.5 – Modell der Emotion Glück

28

Page 37: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.5 Modelle der einzelnen Emotionen

Abbildung 3.6 – Modell der Emotion Ekel

29

Page 38: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

Abbildung 3.7 – Modell der Emotion Traurigkeit

30

Page 39: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.5 Modelle der einzelnen Emotionen

Abbildung 3.8 – Modell der Emotion Überraschung

31

Page 40: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

Abbildung 3.9 – Modell der Emotion Unsicherheit

32

Page 41: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.6 Verwendung des Modells zur Implementierung von Emotionen

3.6 Verwendung desModells zur Implementierung von Emotionen

Nach der Erstellung der Modelle müssen diese so umgewandelt werden, dass sie automatischweiterverarbeitet werden können, um die Emotion darzustellen. Dazu muss zunächst das gra-phische Modell in eine vom Computer lesbare Struktur umgewandelt werden. Häufig verwen-dete Computer verarbeitbare Repräsentationen von Baumstrukturen sind entweder XML, oderJavascript Object Notation (JSON) Dateien. XML eignet sich dabei vor allem für komplexereStrukturen undModelle. Da dies in diesem Anwendungsfall aber nicht gegeben ist wird die Ver-wendung von JSON vorgeschlagen. Außerdem ist es in vielen Programmiersprachen einfacherJSON Daten zu verarbeiten, als XML, da für XML-Dateien zuerst ein Parser geschrieben werdenmuss.Quellcode 3.1 zeigt ein Beispiel eines solchen Modells. Die erste Ebene beschreibt, genau wie

in der grafischen Darstellung auch, die Körperteile, die zur Darstellung der Emotion verwendetwerden. Sollten ein, odermehre Körperteile verpflichtend seinmüssen diese in einemmandato-ry-Array sein. Alle Körperteile außerhalb desmandatory Tags gelten automatisch als verpflich-tend, wenn möglich. Innerhalb der Körperteile gibt es die Attribute min und max welche dieminimal und maximal vorkommende Anzahl an Bewegungen beschreiben. Im Arraymovementsbefinden sich die einzelnen Bewegungen, welche aus der separat deklarierten Menge aus mög-lichen Bewegungen ausgewählt werden. Dort können analog zu Körperteilen ein, oder mehrereBewegungen als verpflichtend gesetzt werden.Die Bedingungenmit denen einzelne Bewegungen verknüpft werden befinden sich unter dem

Tag conditions. In diesem Tag gibt es soweit benötigt ein, oder mehrere or-, and-, oder im-plies-Arrays in denen verschiedene Bewegungen miteinander verknüpft werden können. UmBedingungen zu verschachteln, muss einfach innerhalb eines dieser Arrays ein weiteres ent-sprechendes Array angelegt werden.� �

1 {2 "wut": {3 "mandatory": [4 "augenbrauen"5 ],6 "gesicht": {7 "augenbrauen": {8 "movements": [9 "augenbrauen zusammengezogen"10 ]11 },12 "augenlid": {13 "max": 2,14 "constraints": [15 "1"16 ],17 "mandatory":[18 "unteres augenlid gespannt",19 "verpflichtende Bewegung"20 ],21 "movements": [22 "unteres augenlid gespannt",23 "unteres augenlid erhöht"24 ]25 }

33

Page 42: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3 Modell zur Übertragung von Emotionen auf Roboter

26 },27 "hände": {28 "min": "1",29 "max": "1",30 "costraints": [31 "0"32 ],33 "movements": [34 "hände auf hüfte",35 "hände geschlossen",36 "hände zur faust geballt",37 "fingerzeig",38 "faust schütteln"39 ]40 },41 //...42 "bewegungsart": [43 "viele bewegungen",44 "hohe dynamik"45 ],46 //...47 "conditions": {48 "0": {49 "or": [50 "hände auf hüfte",51 "hände geschlossen",52 "hände zur faust geballt"53 ]54 },55 "1": {56 "fallback": [57 "verpflichtende Bewegung",58 "fallback Bewegung"59 ]60 }61 }62 }63 }� �

Quellcode 3.1 – Beispielausschnitt aus einem JSON-Modell

Nutzung desModells zur ImplementierungNachdem man das Modell erstellt und in eine computerlesbare Struktur umgewandelt hat be-steht der nächste Schritt aus der Verarbeitung und schließlich der Darstellung der Emotion.Dazu muss zunächst in der Bewegungsliste des Modells überprüft werden, welche Körperteileder Roboter besitzt und welche Bewegungen davon er ausführen kann. Anschließend muss fürjede ausführbare Bewegung eine Methode erstellt werden.Danach wird durch das Modell iteriert und für jeden Körperteil überprüft, ob es verpflichten-

de Bewegungen gibt. Ist dies der Fall muss diese ausgeführt werden, wenn nicht wird zufälligeine Bewegung ausgewählt, so lange die Auswahl dieser Bewegung nicht gegen eine Regel imconditions-Array verstößt. Wird eine verpflichtende Emotion gewählt und es entsteht dadurch

34

Page 43: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

3.7 Zusammenfassung

ein Konflikt mit den Bedingungen muss dieser behoben werden, bevor mit der nächsten Be-wegung fortgefahren werden kann. Die ausgewählte Bewegung wird dann in ein Array mit aus-zuführenden Methoden gelegt. Gibt es keine Möglichkeit eine verpflichtende Bewegung aus-zuführen wird diese Emotion abgebrochen und es erscheint eine Meldung, dass diese Emotionnicht dargestellt werden kann. Falls im Körperteil eine fallback-Bedingung im constraints-Arrayist wird versucht diese Ersatzbewegung auszuführen. Sollte dies ebenfalls scheitern wird dieEmotion als nicht darstellbar abgebrochen.Besitzt das Körperteil, für das gerade eine Bewegung ausgewählt wurde einmax-Attribut mit

einem Wert über eins kann zufällig bestimmt werden, ob eine weitere Bewegung ausgeführtwerden soll und diese dann auch in das Array ablegen.Wenn alle Körperteile abgearbeitet wurden, werden alle Methoden, die sich in dem Array

mit auszuführenden Bewegungen finden ausgeführt. Dieser Schritt geschieht erst am Schlussum zu gewährleisten, dass die Emotionsdarstellung erst erfolgt, wenn überprüft wurde, ob siedarstellbar ist.

3.7 Zusammenfassung

In diesem Kapitel wurde zunächst gezeigt, dass von den Anforderungen, die ein Emotionsmo-dell erfüllen sollte, vieles, wie beispielsweise Verknüpfungen, Ausschlüsse, zwingende Vorausset-zungen, sowie Kardinalitäten, bereits in Feature-Modellen und deren Erweiterungen enthaltensind. Andere Anforderungen, wie Voraussetzung, wenn möglich, Implikationen oder Ersatzbewe-gungen sind dort zwar nicht enthalten, können aber in die Aussagenlogischen Verknüpfungenintegriert werden. Aufgrund dieser großen Ähnlichkeit wurde vorgeschlagen Emotionsmodel-le mit den genannten Änderungen auf Feature-Modellen basieren zu lassen. Außerdem wurdegezeigt, wie diese Modelle für bestimmte Emotionen aussehen könnten und wie die grafischeNotation der Emotionsmodelle mittels JSON in eine computerlesbare Struktur umgewandeltwerden kann. Damit sind alle Vorüberlegungen abgeschlossen um im Folgenden erklären zukönnen, wie dieseModelle anhand eines konkreten Beispiels auf einen Roboter übertragenwer-den können.

35

Page 44: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 45: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4 PrototypischeModellimplementierung aneinem konkreten Beispiel

Um überprüfen zu können, ob die Modelle erkennbare Emotionen produzieren können mussteeine Anwendung geschrieben werden, die die im letzten Kapitel erstelltenModelle in eine Emo-tionsausgabe umwandelt. In diesem Kapitel soll nun zuerst der Roboter vorgestellt werden, aufdem der Prototyp umgesetzt werden soll. Anschließend wird auf die Architektur der Softwareim allgemeinen und eine vereinfachte Version des Algorithmus, der für die Emotionsdarstellungzuständig ist, eingegangen.

4.1 Vorstellung von Segway Robotics Loomo

Für die prototypische Entwicklung wurde der Roboter Loomo von Segway Robotics gewählt(siehe Abbildung 4.1). Loomo ist ein ca. 65 cm großer Roboter auf Basis der Segway HoverboardsMiniPRO (http://www.segwayminipro.com/). Neben dem klassischen Segway Trittbrett ver-fügt er über verschiedene Sensoren zur Navigation, Lautsprecher und ein ca. 5" großes Displayauf Android Basis, das im dreh- und schwenkbaren Kopf des Roboters untergebracht ist (fürmehr Informationen: http://www.segwayrobotics.com/product).Da bei vielen Aufgaben, die ein Roboter im Alltag erledigen soll, die Arme bereits verwen-

det werden, können diese in den meisten Fällen für eine Emotionsdarstellung nicht verwendetwerden. Deshalb stellt die Tatsache, dass Loomo keine Arme besitzt kein großes Hindernis fürdie Aussagekraft der Modellumsetzung dar. Weil Loomo allerdings alle anderen für die Emoti-onsdarstellung relevanten Körperteile, zumindest in rudimentärer Form, besitzt eignet er sichgut als Testroboter für die in dieser Arbeit erstellten Modelle. Durch sein im Kopf integriertesDisplay ist es möglich ein Gesicht zu implementieren, das mit Augen, Augenbrauen und Munddie für die Emotionsdarstellung wichtigsten Teile enthält [Weg+17]. Das Gesicht soll bei der Im-plementierung dabei bewusst so minimal wie möglich gehalten werden um eine Aussage zurEmotionserkennbarkeit bezüglich möglichst vieler Roboter treffen zu können, die nicht immerein sehr ausgeprägtes Gesicht besitzen. Dass ein minimales Gesicht ausreichen kann um Emo-tionen erkennbar darzustellen zeigt auch der in Abbildung 2.8 vorgestellte Roboter Cozmo, dernur über Augen, Töne und Bewegungen erkennbare Emotionen darstellen kann. Durch die Rä-der und den drehbaren Kopf sind neben den Gesichtsausdrücken außerdem Bewegungenmög-lich, wodurchmanche Emotionen, wie zumBeispiel Angst, oder Ekel um eine Abwendende, oderfliehende Bewegung erweitert werden können, was die Erkennung der Emotion erleichtern soll.Die in der Aufgabenstellung erwähnte Multimodalität kann durch die Lautsprecher, durch dieTöne ausgegeben werden sollen, erreicht werden.

4.2 Implementierung

Die Implementierung für den Roboter Loomo erfolgt über ein von Segway überarbeitetes An-droid Betriebssystem auf Basis der Android Version 5.1. Über das Bereitgestellte SDK wird es

37

Page 46: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4 Prototypische Modellimplementierung an einem konkreten Beispiel

Abbildung 4.1 – Loomo

Abbildung 4.2 – Screenshot von Loomos Ge-sicht

dem Programmierer ermöglicht die Räder, sowie den Kopf des Roboters zu steuern. Für das imKopf integrierte Display können Views aus der normalen Android Entwicklung verwendet wer-den. Das SDK stellt außerdem noch ein Emoji Package zur Verfügung, welches allerdings nichtfür die Zwecke dieser Arbeit verwendet werden kann, da es dem Entwickler nur die Möglichkeitgibt eine von Segway vorgefertigte Emotion darzustellen. Eine manuelle Änderung durch denEntwickler ist nicht möglich, weshalb das Modell damit nicht dargestellt werden kann.

4.2.1 Architektur

Architektur der BibliothekUmeine Implementierung für zukünftigeNutzer desModellsmöglichst einfach zumachenwur-de eine Android Bibliothek erstellt. Diese Bibliothek besteht aus einem bodyParts-, sowie einemhelper-Package. Im helper-Package befinden sich die Klassen Util, AppConstants und JsonCon-verter. Util ist eine Klasse in der generelle Helfer-Methoden zu finden sind, wie zumBeispiel, umeinen spezifischen Eintrag aus einem JSON-Array zu entfernen. Die Klasse AppConstants ent-hält die Konstanten für die Bewegungsgeschwindigkeiten, sowie die Dauer zwischen den ein-zelnen Bewegungen. Die Aufgabe des JsonConverters besteht darin, die JSON-Datei desModellszu parsen und den einzelnen Körperteilen Bewegungen, Einschränkungen, etc. zuzuweisen.Im bodyParts-Package sind die abstrakten Klassen der einzelnen Körperteile vorhanden. Die-

se erben alle von der Klasse BodyPart, die für die Initialisierung der Bewegungsverarbeitung unddie Verwendung des Modells zuständig ist. Die Körperteile besitzen jeweils eine abstrakte Me-thode für jede Bewegung, die von diesem Körperteil ausgeführt werden kann. Außerdem ent-halten sie Methoden zur Überprüfung, ob verpflichtende Bewegungen von diesem Körperteilausgeführt werden können und eine switch-case-Verzweigung in der die Befehle des Modellsden abstrakten Methoden zugewiesen werden.Durch die Vererbung der Logik, zur Initialisierung und Überprüfung, die für jeden Körperteil

gleich ist, kann die Darstellungslogik leicht an neue Anforderungen angepasst werden, ohnedass die einzelnen Körperteile davon betroffen sind. Die Abstraktion der Körperteile zwingt

38

Page 47: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4.2 Implementierung

App

Emotion Library

MainActivity

BodyPart

MyArms MyEye MyEyebrow ...

Arms Eye Eyebrow ...

ImplementierenBewegungen fürabstrakteMethoden derLibrary

Stellen AbstrakteMethoden für jedeBewegung desKörperteils zurVerfügung

Enthält Logik derBewegungsausführungEmotionExecutor

Ruft Methoden zurBewegungsausführungauf

<<initializes>><<initializes>>

<<initializes>>

<<initializes>>

Abbildung 4.3 – Vereinfachtes Klassendiagramm der Beziehungen zwischen App und Bibliothek

den Nutzer der Bibliothek dazu, jede mögliche Bewegung des Roboters zu implementieren. Erkann bei der Implementierung der konkreten Klassen aber auf spezielle Fähigkeiten oder Ein-schränkungen seines Roboters Rücksicht nehmen.Sollte eine Bewegung nicht möglich sein muss diese Methode mit leerem Körper implemen-

tiert werden. Außerdem müssen die beiden Methoden executeFunctionForName(String name)und checkIfMandatoryMovementsPossible(String name, boolean checkForFallback)überschrie-ben und die entsprechende Bewegung aus den beiden Methoden entfernt werden. Zusätzlichdazu befindet sich in der Bibliothek noch die Klasse EmotionExecutor, die für die Ausführungder Bewegungen verantwortlich ist.

Verwendung der BibliothekUm den Abstrakten Methoden wirkliche Bewegungen zuzuweisen muss, wie Abbildung 4.3zeigt, in der vom Verwender der Bibliothek erstellten App für jeden Körperteil, den er verwen-den möchte eine Klasse erstellt werden, die den jeweiligen Körperteil der Bibliothek erweitert.In dieser Klasse müssen schließlich alle Methoden des vererbenden Körperteils implementiertund mit genauen Bewegungsbefehlen befüllt werden.Zur Verwendung der Bibliothek müssen zunächst, in der onCreate()-Methode, Views für die

Augen, Augenbrauen und den Mund angegeben werden, falls diese Körperteile verwendet wer-den sollen. Anschließend initialisiert man den JSON-Converter und bindet die Services, diezur Bewegung benötigt werden, wie in 4.1 beschrieben, an die Wheels-, sowie Head-Klasse.

39

Page 48: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4 Prototypische Modellimplementierung an einem konkreten Beispiel

� �1 head = new MyHead(getBaseContext(), jsonConverter);2 head.bindHeadService();� �

Quellcode 4.1 – Initialisierung des Kopfes

Es ist wichtig diesen Code in der onCreate()-Methode auszuführen um die Initialisierung nureinmal durchzuführen.Die nächsten Schritte geschehen alle in onResume() um eine wiederholte Ausführung jedes

Mal, wenn die App in den Vordergrund wechselt, zu ermöglichen. Um mit dem Modell arbeitenzu können muss zunächst die JSON-Datei des Modells geladen werden:� �

1 jsonConverter.getJsonFromFile(emotionName, emotionName);� �Quellcode 4.2 – Laden des JSON-Objekts aus der Datei

Diese JSON-Datei muss sich im raw-Ordner der Android App befinden.Anschließend werden die restlichen Körperteile, sowie die Klasse MandatoryCheck initiali-

siert:� �1 eyebrows = new MyEyebrow(leftEyebrowView, rightEyebrowView, getBaseContext(),

jsonConverter, mandatoryCheck);2 try {3 eyebrows.setConcreteBodyPart(jsonConverter.initializeEyebrow());4 eyebrowsPresent = true;5 } catch (jsonException e) {6 eyebrowsPresent = false;7 e.printStackTrace();8 }� �

Quellcode 4.3 – Beispielinitialisierung eines Körperteils

Nach der Initialisierung werden in einer Schleife, die Körperteile initialisiert und die Bewe-gungen ausgeführt, wenn die Überprüfung auf verpflichtende Attribute nicht fehlgeschlagenist.� �

1 handler.postDelayed(new Runnable() {2 public void run() {3 // resets the execution as failed because it will be retested for

in the next steps4 mandatoryCheck.setMandatoryFailed(false);5 initializeBodyParts();6 if (!mandatoryCheck.isMandatoryFailed()) {7 emotionExecutor.executeInitialMovements();8

9 // reverse emotions only if mandatory check succeededbecause otherwise no emotion was executed

10 if (!mandatoryCheck.isMandatoryFailed() && mandatoryCheck.getFallbackMovements().size() == 0) {

11 emotionExecutor.reverseMovements();12

13 // redo the whole loop to execute the emotion againafter the timer ended

14 // timer is set to twice the delay + twice themovementSpeed to have exactly the same time the movement takes between twomovements

40

Page 49: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4.2 Implementierung

15 handler.postDelayed(this, movement.getDelayBetweenMovements() * 2 + movement.getMovementSpeed() * 2);

16 }17 }18 }19 }, 0);� �

Quellcode 4.4 – Befehl zum Start der Emotionsdarstellung

Verwendung ohne AndroidDurch die Entkopplung der Logik des Algorithmus von der Benutzeroberfläche wäre es oh-ne große Probleme möglich die Android-Bibliothek in einen anderen Java-Code einzubinden.Dazu müsste die Bibliothek als Standard Java-Bibliothek exportiert werden. Da die Initialisie-rung des Kopfes und der Räder nur für den speziellen Fall von Loomo stattfinden muss, kanndieser Schritt für jeden anderen Roboter übersprungen werden. Die Erstellung der Views inder onCreate()-Methode muss in einer Standard Java Anwendung beim Start der Anwendungvor der Initialisierung der Körperteile und des JsonConverters erfolgen. Um den JsonConverteraußerhalb eines Android Projekts zu verwenden muss die Methode getJsonFromFile() über-schrieben werden, da diese speziell an die Dateistruktur in Android Anwendungen angepasstist. Die anschließende Initialisierung der Körperteile und das Starten des Algorithmus kann ausder Anleitung für die Android Anwendung übernommen werden.

4.2.2 Algorithmus zur Umwandlung derModelle in dargestellte Emotionen

Um zu verstehen, wie genau die Bibliothek funktioniert und wie aus den Modellen eine darge-stellte Emotion wird soll in diesem Abschnitt der Algorithmus zur Emotionsdarstellung genauererklärt werden. Das Ziel ist es die JSON-Modelle einzulesen und anschließend für jeden verfüg-baren Körperteil die in dem Modell spezifizierten Bewegungen auszuführen, bzw. zu melden,dass eine Emotion nicht darstellbar ist, wenn ein verpflichtendes Körperteil fehlt, oder eineBewegung nicht ausführbar ist.Wie Abbildung 4.4 zeigt, besteht der Algorithmus im Wesentlichen aus vier Teilen. Im ersten

Teil wird das Modell aus der JSON-Datei geladen. Anschließend wird überprüft welche Körper-teile im Modell vorhanden sind, also für welche Körperteile Bewegungen ausgeführt werdenmüssen. Dazu wird überprüft, ob der Roboter diesen Körperteil besitzt und dieses gegebenen-falls initialisiert. Sollte der Roboter das Körperteil nicht besitzen, dieses aber für die Darstellungzwingend notwendig sein, wird die Emotion nicht dargestellt.Sind alle erforderlichen Körperteile vorhanden wird für jeden Körperteil überprüft, ob diese

verpflichtende Bewegungen ausführenmüssen, oder Ersatzbewegungen für andere Körperteileausführen sollen. Falls sie eine dieser Bewegungen nicht ausführen können und ein Ersatz dafürexistiert wird mit der nächsten Bewegung, bzw. dem nächsten Körperteil weitergemacht. Solltekein Ersatz existieren wird die Emotion als nicht ausführbar gesetzt.Wurden alle Körperteile auf ihre verpflichtenden Emotionen überprüft, werden alle Ersatz-

Bewegungen überprüft und wenn sie ausgeführt werden können aus der Liste der Ersatzbewe-gungen gelöscht und als verpflichtend für den neuen Körperteil gesetzt. Sollte eine der Ersatz-bewegungen nicht ausführbar sein wird die Emotionsdarstellung abgebrochen.Treffen alle oben genannten Abbruchbedingungen nicht zuwird damit begonnen die Emotion

darzustellen. Ein etwas detaillierterer Ablauf dazu kann in 4.5 gefunden werden. Die Emotions-darstellung beginnt in der Methode executeMovements() zuerst damit die verpflichtenden Be-

41

Page 50: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4 Prototypische Modellimplementierung an einem konkreten Beispiel

var emotionObject = readJsonFile();

for each körperteil in emotionObject

displayEmotion();

checkIfRobotHasBodyPart();

initializeBodyPart();

if(mandatoryAttributesExist())

if(!checkIfMandatoryMovementsPosible())

if(!checkIfFallbackPossible())

setEmotionNotDisplayable();

else

addToPoosibleFallbacks();

Abbildung 4.4 – Graphische Darstellung des Algorithmus zur Emotionsumwandlung

wegungen auszuführen, wenn oben genannte Bedingungen erfüllt sind. Anschließend wird jedeausgeführte Bewegung zur Liste der ausgeführten Bewegungen hinzugefügt. Dies ist notwen-dig, dass nach der Bewegung alle Körperteile wieder in ihren Ausgangszustand gebrachtwerdenkönnen. Außerdem wird die Bewegung aus der Liste der möglichen Bewegungen entfernt, da-mit diese nicht doppelt ausgeführt wird. Dabei wird außerdem bei jeder Bewegung überprüft obdiese an eine Bedingung geknüpft ist. Bei einer or-Bedingung werden alle anderen Bewegun-gen, die in dieser Bedingung enthalten sind aus der Liste der möglichen Bewegungen entfernt.Bei andwird die verknüpfte Bedingung ausgeführt. Sollte diese Bewegung nicht ausführbar seinwird die Emotion als nicht ausführbar gesetzt und die Bewegung abgebrochen.

Nach der Ausführung aller verpflichtenden Bewegungen wird außerdem in Abbildung 4.5 inZeile 56 überprüft, wie viele Bewegungen dieser Körperteil ausführen soll. Ist die Zahl der aus-geführten Bewegungen kleiner als die Mindest-, oder Maximalzahl werden so lange zufälligeBewegungen ausgeführt, bis die maximale Anzahl an Bewegungen erreicht ist. Dadurch ist esmöglich für eine Emotion unterschiedliche Bewegungsmuster zu generieren.

Wurden alle Bewegungen erfolgreich ausgeführt wird je nach Bewegungshäufigkeit der Emo-tion ein Countdown gesetzt, nachdem die Bewegungen, wie reverseMovements() zeigt, die inder Liste der ausgeführtenBewegungen sind zurückgesetztwerden.Nach einemerneutenCount-down wird dieser Algorithmus erneut durchlaufen um die Emotion erneut darzustellen.

Quellcode 4.5 zeigt diesen Algorithmus in vereinfachter Form.

42

Page 51: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4.2 Implementierung

� �1 var emotionObject = readjsonFile();2 for each(Körperteil in emotionObject){3 checkIfRobotHasBodyPart();4

5 // sets all variables neccesseary eg:6 // constraints, mandatoryMovements, movementSpeed, delayBetweenMovements7 initializeBodyPart();8

9 if(mandatoryAttributesExist()){10 if(!checkIfMandatoryMovementsPossible()){11 if(!checkIfFallbackPossible()){12 // sets a flag that the emotion can be displayed to later prevent execution

of movements13 setEmotionNotDisplayable();14 } else {15 // adds the movement specified as fallback to an array with possible

fallbackMovements16 addFallbackMovementToPossibleFallbacks();17 }18 }19 }20 }21 displayEmotion();22

23 //-------------------------------------------------------------------------------24 // explanation of methods used above25

26 function displayEmotion(){27 executeMovements();28 reverseMovements();29

30 // wait depending on wether the movement has a high or low movement rate31 wait delayBetweenMovements32 displayEmotion();33 }34

35 function checkForConstraints() {36 for each(constraint in movementConstraints){37 if (constraint is "or"){38 // remove movements from list of possible movements39 }40

41 if( constraint is "and"){42 // add to mandatory movements43 }44 }45 }46

47 function executeMovements(){48 for each(bodyPart in emotionObject){49 if(fallbackMovements.size() == 0 or !emotionNotDisplayable){50 executeMandatoryMovements();51 addExecutedMovementToListOfExecutedMovements();

43

Page 52: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4 Prototypische Modellimplementierung an einem konkreten Beispiel

52 removeExecutedMovementOfListOfPossibleMovements();53 checkForConstraints();54 }55 if(numberOfMaxMovments < numberOfExecutedMovements or numberOfMinMovements >

numberOfExecutedMovements){56 executeRandomMovement();57 checkForConstraints();58 }59 }60 }61

62 function executeRandomMovement(){63 var randomInt = Randomizer.getInt();64 var movement = possibleMovements.get(randomInt);65 executeMovement(movement);66 }67

68 function reverseMovements(){69 for each (bodyPart in emotionObject){70 for(movment in listOfExecutedMovements){71 reverseMovement();72 }73 }74 }� �

Quellcode 4.5 – Algorithmus zur Umwandlung der Modelle in dargestellte Emotionen

4.3 Einschränkungen und Probleme

Mit der in diesem Kapitel gezeigten Implementierung konnten die Modelle erfolgreich in ei-ne Emotionsausgabe von Loomo umgewandelt werden. Allerdings war das, aufgrund der Limi-tierungen des Roboters, bzw. dessen SDK, wie dieser Abschnitt zeigen soll, nicht immer ohneEinschränkungen, oder problemlos möglich. Eine große Einschränkung bei der Umsetzung derModelle bestand in der Sprachausgabe. Loomo bietet Entwicklern zwar dieMöglichkeit Spracheauszugeben, allerdings gibt es keine Möglichkeit zusätzliche Parameter, wie zum Beispiel einezittrige Stimme zu modellieren. Um dies zu umgehen wurde stattdessen für viele Emotionenein kurzes Tonschnipsel ausgewählt, das während der Emotion abgespielt wurde.Außerdem gestaltete sich die Animation desMundes deutlich schwieriger als erwartet, da die

Animation einer Ellipse in einen lachenden Mund mit Android Komponenten nicht möglich ist.Eine Alternative zu Android eigenen View-Elementen sind SVG-Grafiken, welche man als Re-source für ImageView-Elemente angeben kann. Die SVG-Grafiken können über Path-Morphingverfahren in jede beliebige Form gebracht werden und somit auch die Animation des Mundeshinreichend darstellen. Deshalb wurde für jede Endstellung des Mundes, die in den Emoti-onsmodellen vorkommt, eine weitere SVG Grafik erstellt. Mit dem Online-Werkzeug https://shapeshifter.design wurden anschließend ein Animated-Vector-Drawables für das Path-Morphing erstellt, welche in Android eingebunden werden können. Ein Problem bei der Erstel-lung solcher SVG-Animation ist allerdings, dass das Anfangsbild, sowie das Endbild über genaudie gleiche Anzahl an SVG-Befehlen verfügenmüssen. Diese Befehle müssen nun jeweils gegen-über gestellt werden um einen Übergang zwischen den Punkten zu animieren. Diese Gegen-

44

Page 53: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

4.4 Zusammenfassung

überstellung kann vomWerkzeug Shapeshifter übernommen werden, erfordert aber in einigenFällen Nacharbeit und Verbesserungen um eine flüssige und schöne Animation zu gewährleis-ten.Ein weiterer Nachteil von SVG-Animation ist, dass man zwar in der daraus resultierenden

XML-Datei eine Dauer der Animation festlegen kann, diese aber im Java-Code nicht mehr dy-namisch angepasst werden kann. Möchte man mehrere Geschwindigkeiten der Bewegungenimplementieren muss so für jede Geschwindigkeit individuell eine neue SVG-Animation erstelltwerden. Der größte Einschnitt bezüglich des Modells ist bei dieser Lösung allerdings, dass Ver-knüpfungen automatisch nicht möglich sind, da immer nur eine Animation ausgeführt werdenkann. Dies musste umgangen werden, indem zusammen auftretende Befehle, wie zum BeispielLippen Ecken nach oben gezogen und Lippen Ecken nach hinten gezogen in einer SVG-Datei um-gesetzt wurden und manuell eine Verknüpfung auf Code-Ebene hinzugefügt wurde.Eines der größten Probleme ist die Inkonsistenz bei Bewegungen der Räder, oder des Kop-

fes. So fährt Loomo beispielsweise beim Aufruf der gleichenMethode jedes Mal unterschiedlichweit nach vorn, dreht sich nicht immer genau 90°, oder dreht seinen Kopf nicht immer gleichweit. Ein weiteres Problem besteht bei den unterschiedlichen Möglichkeiten der Bewegungs-modi. Loomo stellt dem Entwickler drei verschiedene Modi zur Verfügung. Einer dieser Modidient allerdings nur dazu einen Menschen zu verfolgen und ist deshalb für eine selbständigeBewegung nicht anwendbar. Im Modus CONTROL_MODE_NAVIGATION ist es möglich Loomo genaueBefehle zu geben wohin, relativ zu seiner jetzigen Position er sich bewegen soll, allerdings gibtes dort keine Möglichkeit ihm genau zu sagen, wie er sich dort hibewegen soll. Somit kann so-wohl Bewegungsgeschwindigkeit, als auch Rückwärts-, oder Vorwärtsbewegung nicht manuellaufgerufenwerden. ImModus CONTROL_MODE_RAW bekommt der Entwickler dann dieMöglichkeitalle diese Parameter zu verändern, es ergeben sich allerdings die oben genannten Probleme,mitder Entfernung und Drehung.

4.4 Zusammenfassung

In diesem Kapitel wurde gezeigt, wie dieModelle auf einen Roboter übertragen werden können.Dazu wurde der Roboter Loomo verwendet, der durch seinen Aufbau für eine Überprüfung desModells gut geeignet ist. Da die Programmierung von Loomo über Android erfolgt, wurde für dieEmotionsdarstellung eine Android-Bibliothek erstellt, die durch die Erweiterung der KörperteilKlassen um konkrete Bewegungsimplementierungen in der Lage ist, aus den vorgestellten Mo-dellen Emotionen darzustellen. Obwohl diese Bibliothek speziell für Android entwickelt wurdeist es durch die strikte Entkopplung der Logik von der Nutzerschnittstelle relativ einfach mög-lich diese Bibliothek auch für andere Java-Anwendungen nutzbar zu machen. Da die währendder Implementierung der Bibliothek und des Umwandlungsalgorithmus auftretenden Proble-me, oder Einschränkungen des Roboters nur minimal waren und mit geringen Anpassungen,bzw. Einschränkungen alles wichtige umsetzbar war soll nun im nächsten Kapitel durch eineNutzerstudie überprüft werden, ob mit den Modellen erkennbare Emotionen erstellt werdenkönnen.

45

Page 54: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 55: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung derErkennbarkeit der Emotionen

Nachdem im letzten Kapitel gezeigt wurde, dass die erstellten Modelle automatisiert und com-putergestützt eingelesen werden können und damit Emotionen dargestellt werden können, sollin diesem Kapitel überprüft werden, wie gut die dargestellten Emotionen erkennbar sind. Umdies zu überprüfen wurde eine Nutzerstudie durchgeführt, anhand derer in diesem Kapitel ge-zeigt werden soll, welche Emotionen besser und welche schlechter erkannt wurden. Dazu wirdzuerst der Aufbau und die Durchführung beschrieben, bevor die Ergebnisse analysiert und in-terpretiert werden sollen.

5.1 Aufbau der Studie

Zur Überprüfung, ob die vorgestellten Modelle in der Lage sind Emotionen zu generieren, dieerkannt werden können, wurde eine Nutzerstudie durchgeführt. Dazu wurde eine gemischteGruppe aus 25 Personen befragt. Die Studie bestand sowohl aus einer Online-Befragung, beider 20 Personen teilnahmen, als auch aus einem Test am Roboter selbst mit 5 Testern, die je-doch beide exakt gleich aufgebaut waren. Zuerst wurden die demographischen Daten der Nut-zer abgefragt um eventuelle Rückschlüsse der Leistung auf das Alter oder andere Parameter zuziehen. Anschließend wurden der Testperson in einer festgelegten Reihenfolge die Emotionengezeigt. Zu diesen Emotionen wurde gefragt, welche Emotion dargestellt wird und wie sichersich die Probandenmit ihrer Antwort sind. In der Online Befragungwurden die Emotionen überein Video gezeigt. Für die Eingabe des Emotionsnamens wurde ein Freitext-Feld gewählt um ei-ne etwaige Beeinflussung desNutzers durch Vorschläge in einer Dropdown-Liste zu vermeiden.Die Zuversichtlichkeit der Erkennung wurde durch eine 5-Punkte Likert-Skala erfasst.Um zu ermitteln, wie angestrengt die Testpersonen waren um die Emotionen zu erkennen

und das gefühlte Abschneiden zu ermitteln wurde im Anschluss ein Task Load Index (TLX)-Fragebogen erfasst. Die eigentliche Aufgabe eins TLX-Fragebogen besteht darin zwei Aufga-ben zu vergleichen. Da das Ziel dieses Tests nicht der Vergleich der einzelnen Emotionen war,sondern eine Aussage darüber zu treffen, ob die Personen die Emotionen allgemein erkannten,wurde der TLX verwendet umherauszufinden, wie leicht ihnen das Erkennen fiel. In Verbindungmit der Anzahl an korrekt gegebenen Antworten und damit, wie sicher sich die Probanden beiihrer Antwort fühlten lassen sich so Rückschlüsse darauf ziehen, wie einfach und schnell dieEmotionen erkannt werden.Die volle Nutzerstudie ist unter https://goo.gl/forms/XsbVIgflctkqw0in2 einsehbar.

5.2 Durchführung der Studie

Zur Durchführung des Offline Teils der Nutzerstudie wurden die Probanden in das Usability Labdes Lehrstuhls Mensch-Computer-Interaktion an der Technischen Universität Dresden einge-laden. Nach einer kurzen Vorstellung des Roboters wurde den Probanden erklärt welche Fragen

47

Page 56: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen

sie beantworten sollten. Nach der Beantwortung der demographischen Fragen wurden jedemProbanden nacheinander die Emotionen in folgender Reihenfolge gezeigt: Freude, Angst, Un-sicherheit, Ekel, Traurigkeit, Überraschung, Beklemmung und Wut. Bei jeder dieser Emotionenführte Loomo die Bewegungen aus, die ihm das Modell vorgab. Die Probanden durften jedeEmotion so lange betrachten, wie sie wollten und trugen, sobald sie sich auf eine Emotion fest-gelegt hatten diese in das Textfeld ein und bewerteten, wie sicher sie sich mit ihrer Antwortwaren. Im Anschluss an das Ausfüllen des TLX wurden die Probanden gefragt, ob sie Verbesse-rungsvorschläge, oder konkrete Kritik hätten.Der Online Test folgte dem selben Aufbau wie der Offline Test.

5.3 Auswertung der Studie

Die Auswertung der Studie ergab, dass ein Großteil der dargestellten Emotionen mit durch-schnittlich 75% erfolgreich erkannt wurde. Besonders gut wurden dabei die Emotionen Freudeund Traurigkeit, mit 92%, bzw. 96%, erkannt. Eine Erklärung für diese überdurchschnittlichgute Erkennung könnte daran liegen, dass die beiden Emotionen hauptsächlich über die ge-hobenen, bzw. herabgezogenen Mundwinkel gezeigt wird, welche sehr gut dargestellt werdenkönnen. Bei den beidem am schlechtesten erkannten Emotionen Unsicherheit und Beklem-mung wurde von den Testpersonen oft erwähnt, dass diese ohne Kontext sehr schwer zu er-kennen wären.

FreudeEine der wie bereits in der Einleitung erwähnt sehr gut erkannten Emotionen ist Freude. DieAntworten fast aller Testteilnehmer bestanden aus Freude, Jubel, lustig, oder einer vergleich-baren Emotion (siehe 5.1. Wie bereits erwähnt könnte eine Ursache dafür sein, dass sich dieseEmotion besonders gut mit dem für diese Arbeit entwickelten Gesicht darstellen lässt. Ein an-derer nicht zu vernachlässigender Grund könnte aber auch sein, dass es sich dabei um eineder grundlegenden Emotionen handelt. Die gute Erkennbarkeit der Emotion spiegelt sich auchin der Zuversicht wider mit der die Probanden glaubten die Emotion richtig erkannt zu ha-ben (siehe Abbildung 5.2). Eine Anregung, die eine Testerin vorgeschlagen hat, wäre für einerunde Augenform zu verwenden, da die eckige Form ihrer Meinung nach die Positivität leichtabschwächt.

AngstEineweitere grundlegende Emotion, die allerdings,mit nur 40%,weit weniger gut erkanntwur-de ist Angst. Dies ist auch sofort an der eher verhaltenen Zuversicht der Probanden über dieRichtigkeit ihrer Antwort ersichtlich. Lediglich 10 der 25 Testpersonen erkannten die dargestell-te Emotion als Angst, oder eine vergleichbare Emotion wie Furcht. Zwei Testpersonen wertetendie Bewegungen als Unentschlossenheit. Dies lässt sich vielleicht auf die abrupten Vorwärts-und Rückwärtsbewegungen zurückführen, welche auch einen schnellen Sinneswandel symbo-lisieren könnten.Eine nach den Offline Tests durchgeführte Befragung der Probanden lässt außerdem ver-

muten, dass die schlechte Rate der Erkennung an dem Schrei liegt, den Loomo während derEmotion von sich gibt, da dieser eher an Alarm, oder Wut erinnert als an Angst. Außerdem sinddurch die hektische Rückwärtsbewegung des Roboters die aufgerissenen Augen und hochge-zogenen Augenbrauen, die bei Darwin [Dar97] einen hohen Stellenwert einnehmen, nur schwer

48

Page 57: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5.3 Auswertung der Studie

Abbildung 5.1 – Antworten für die Emotion Freude

Abbildung 5.2 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Freude waren

erkennbar.

UnsicherheitWieAbbildung 5.5 zeigtwurde diese Emotion,mit 24%eher schlecht erkannt. Dies könnte daranliegen, dass ohne Kontext Unsicherheit nur schwer zu bestimmen ist. Die beiden Testpersonen,die Müde als Antwort gegeben haben gaben an, dass die geschlossenen Augen in Kombinationmit den langsamen Bewegungen dafür verantwortlich waren.

49

Page 58: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen

Abbildung 5.3 – Antworten der Emotion Angst

Abbildung 5.4 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Angst waren

EkelEkel wurde zwar, wie Abbildung 5.7 zeigt, nur von 60% der Testpersonen erkannt. Allerdingswaren sich alle Probanden bei ihrer Antwort relativ sicher.

TraurigkeitTraurigkeit ist mit 96% Erkennungsrate, wie Abbildungen 5.9 und 5.10 zeigen, eine weiteregrundlegende Emotion die mit großer Sicherheit erkannt wurde.

ÜberraschungDie EmotionÜberraschungwurdemit 80%erstaunlich gut erkannt (siehe Abbildungen 5.11, 5.12).

50

Page 59: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5.3 Auswertung der Studie

Abbildung 5.5 – Antworten der Emotion Unsicherheit

Abbildung 5.6 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Unsicherheit waren

Vier der Testpersonen bezeichneten die Emotion als Erschrocken, was eine eher negativ konno-tierte Überraschung ist. Dies lässt sich eventuell auf das bereits bei Freude erwähnte Argumentder runden Augen, oder das relativ aggressiv klingende Einatmen des Roboters zurückführen.Ein anderes Geräusch, das verwendet werden könnte um der negativen Auslegung eventuelletwas entgegenzuwirken wäre ein oh-Laut.

BeklemmungBeklemmungwurde insgesamtmit nur 12% am schlechtesten erkannt, was sich auch in demGe-fühl der Probandenüber die Richtigkeit ihrer Antwortwiderspiegelt (siehe Abbildungen 5.13, 5.14).Nur eine der Testpersonen bezeichnete die Emotion als Unbehagen, was vermutlich mit Be-

51

Page 60: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen

Abbildung 5.7 – Antworten der Emotion Ekel

Abbildung 5.8 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Ekel waren

klemmung gleichsetzbar ist. Der Vorschlag einer Testperson zur Verbesserung war ein schüch-ternes Lächeln hinzuzufügen.

WutObwohl Wut, wie Abbildung 5.15 zeigt, mit 84% sehr gut erkannt wurde waren sich die Pro-banden laut Abbildung 5.16 nicht immer ganz sicher mit ihrer Antwort. Eine Probandin meinteam Schluss des Tests, dass die Augenbrauenbewegung nach innen zu subtil war und deutlicherherausgestellt werden müsste um die Erkennung zu vereinfachen.

52

Page 61: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5.3 Auswertung der Studie

Abbildung 5.9 – Antworten der Emotion Traurigkeit

Abbildung 5.10 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Traurigkeit waren

Auswertung des TLXAuch wenn der TLX wie bereits in 5.1 beschrieben eigentlich dem Vergleich mehrerer Aufgabendient lässt sich damit bei einer einzelnen Aufgabe eine Aussage bezüglich der Schwierigkeitdieser Aufgabe treffen. Dies ist bei der Emotionserkennung vor allem in Kombination mit derErkennungswahrscheinlichkeit ein wichtiger Wert, da es wichtig ist, dass sowohl die Erken-nungswahrscheinlichkeit recht hoch, als auch der Aufwand, bzw. die Geschwindigkeit mit dereine Emotion erkannt wird, niedrig ist. Denn nur in Kombination dieser beiden Parameter las-sen sich Emotionen in Alltagssituationen schnell genug erkennen um darauf zu reagieren. Miteinem durchschnittlichenWert von 45 Punkten und nur wenigen Ausreißern nach oben bis ma-ximal 66 Punkte lässt sich erkennen, dass die Erkennung von den meisten Probanden als nicht

53

Page 62: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen

Abbildung 5.11 – Antworten der Emotion Überraschung

Abbildung 5.12 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Überraschung waren

ganz einfach, aber auch nicht sonderlich schwer eingestuft wird.Betrachtetman denUnterschied der Zuversicht der Probanden die Emotionen richtig erkannt

zu haben siehtman, dass diese bei den grundlegenden Emotionenmit durchschnittlich 4,1 von 5Punkten deutlich höher ist als mit 2,86 bei den anderen beiden, wodurch man annehmen kann,dass das Ergebnis des TLX durch diese Emotionen verfälscht wurde.

5.4 Interpretation der Studie

Wie die Auswertung der Studie in 5.3 zeigt werden die grundlegenden Emotionen mit einerErkennungsrate von insgesamt durchschnittlich 75% sehr gut erkannt. Dieses Ergebnis zeigt,

54

Page 63: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5.4 Interpretation der Studie

Abbildung 5.13 – Antworten der Emotion Beklemmung

Abbildung 5.14 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Beklemmung waren

dass dieModelle trotz verschiedener Limitierungen in der Lage sind gut erkennbare Emotionenzu produzieren.Bei den beiden anderen Emotionen sieht die Erkennung mit insgesamt nur 18% deutlich

schlechter aus. Ein Grund für das schlechte Abschneiden der beiden Emotionen Unsicher-heit und Beklemmung lässt sich im fehlenden Kontext vermuten. Dieser ist wie bereits in Ab-schnitt 2.1 erwähnt für die Erkennung nicht grundlegender Emotionen fast immer vonnöten.Auch sind diese Emotionen durch ihre Komplexität viel schwerer von anderen Emotionen ab-zugrenzen. Durch die doch sehr limitierte Ausdrucksfähigkeit des Testroboters Loomo, die re-lative kurze Dauer der Emotionsschnipsel und das Fehlen des Kontextes ist diese schlechteErkennung deshalb zu erwarten.

55

Page 64: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5 Nutzerstudie zur Überprüfung der Erkennbarkeit der Emotionen

Abbildung 5.15 – Antworten der Emotion Wut

Abbildung 5.16 – Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Wut waren

Um zu überprüfen, ob die schlechte Erkennung nicht grundlegender Emotionen am Modell,oder der limitierten Ausdrucksweise des Roboters liegt wäre es sinnvoll einen weiteren Testmit einem Roboter durchzuführen, dermenschenähnlicher aufgebaut ist und somit komplexereEmotionen ausführlicher darstellen kann.Im nächsten Kapitel soll nun die Arbeit noch einmal zusammengefasst werden und aufbauend

auf den Ergebnissen der Studie ein Fazit gezogenwerden, inwieweit dasModell die Anforderun-gen der Forschungsfrage erfüllen kann, sowie ein Ausblick auf mögliche Erweiterungen, oderVerbesserungen gegeben werden.

56

Page 65: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

6 Fazit und Ausblick

6.1 Zusammenfassung

Im Rahmen dieser Arbeit wurde überprüft, ob esmöglich ist einModell zu erstellen,mit dem au-tomatisiert Emotionen auf unterschiedlichen Robotern dargestellt werden können. Dafür wur-de zunächst ermittelt, wie Emotionen definiert werden, wobei deutlich wurde, dass es nicht ei-ne allgemein gültige Emotionsdefinition gibt, sondern mehre verschiedene Ansätze. Währendsich viele Forscher bezüglich der Aufgabe der Emotion als Kommunikationsmittel einig sind,gehen ihre Vorstellungen über die Ursachen der Emotionen auseinander. Darwin und viele ihmnachfolgende Forscher wie Scherer [Sch87] sind der Meinung, dass Emotionen eine Reaktionauf ein in der Umwelt, oder körperintern erfolgtes Ereignis erfolgen und den Menschen zu ei-ner Handlung motivieren sollen. Diese These wird im kognitiven Ansatz um den Schritt derBewertung zwischen dem Ereignis und der Reaktion erweitert.William James [Jam84] hingegen prägte als erster den Ansatz, dass Emotionen eine Reaktion

auf eine vom Körper automatisch auf einen Reiz ausgeführte Handlung sind.Die letzte vorgestellte Definition bezieht sich auf die Theorie der sozialen Konstruktivisten,

die besagt, dass Emotionen ein Produkt gesellschaftlicher Regeln und Normen sind.Über all diesen Definition steht allerdings die Erkenntnis, dass es grundlegende Emotionen

gibt, die im Gegensatz zu den meisten Emotionen keinerlei sozialen, oder gesellschaftlichenUnterschieden unterliegen und auf der ganzen Welt erkennbar sind.Nachdemdie Bestandteile von Emotionen zusammengefasstwurdenwidmete sich der nächs-

te Abschnitt der Erkennung von Emotionen. Darin wurde geklärt, dass das Erkennen in mehre-ren Schritten durch einen Musterabgleich mit bereits bekannten Mustern verglichen wird undVorwissen über bereits bekannte Emotionale Reaktionen in bestimmten Situationen bei der Er-kennung hilft. Außerdem wurde gezeigt, dass Emotionen nicht nur über das Gesicht, sondernauch viel über den Körper dargestellt werden.Nach der Vorstellung einiger Roboter, mit mehr oder weniger ausgeprägten Fähigkeiten zur

Emotionsdarstellung und wofür diese benutzt werden widmete sich das nächste große KapitelderModellerstellung. Dabei wurde zunächst auf die Anforderungen eingegangen, die einModellerfüllen können sollte um Emotionen damit zu modellieren. In dieser Arbeit wurde vorgeschla-gen, dass ein solches Modell Verknüpfungen, Ausschlüsse, Implikationen, zwingende Voraus-setzungen, sowie Voraussetzungen, wenn möglich, Kardinalitäten und Einteilungen in Katego-rien ermöglichen muss. Da viele dieser Bedingungen bereits von Feature-Modellen, oder derenErweiterungen unterstützt werden, wurde vorgeschlagen die Modelle auf Basis von Feature-Modellen mit geringen Abwandlungen zu erstellen.Mit den im nächsten Schritt erstellten Modellen wurde anschließend eine Anwendung ent-

wickelt um diese am Roboter Loomo zu testen. Um die Emotionsdarstellung so modular wiemöglich zu halten wurde die Logik in eine Android-Bibliothek ausgelagert und nur die konkre-ten Bewegungen in der App selbst programmiert.Um zu testen, ob die erstelltenModelle erkennbare Emotionen generieren könnenwurde an-

schließend eine Nutzerstudie durchgeführt. Diese ergab, dass grundlegende Emotionen sehr

57

Page 66: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

6 Fazit und Ausblick

gut erkannt werden, bei anderen Emotionen die Erkennung, aber nur schlechte Ergebnisse lie-fert.

6.2 Fazit

Wie die Nutzerstudie in Kapitel 5 zeigte, ist eine automatisierte Emotionsdarstellung für grund-legende Emotionen sehr gut möglich. Auch die nur sehr kurz dargestellten Emotionen wurdensehr gut erkannt und vor allem durch die Gesichtsausdrücke kann somit eine erkennbare Emo-tion auch während anderen Aufgaben des Roboters gut dargestellt werden. Da diese Emotionentrotz eines nur sehr rudimentär dargestellten Gesichts und eingeschränkten Bewegungsfähig-keiten des Roboters, gut erkannt wurden lässt sich außerdem annehmen, dass diese für fast alleRoboter implementiert werden können, so lange sie die Möglichkeit haben Augen, Augenbrau-en und Mund darzustellen. Allerdings wurde auch deutlich, dass nicht grundlegende Emotio-nen, wie zum Beispiel Unsicherheit, so gut wie nicht erkannt werden können. Da grundlegendeEmotionen aber sehr gut erkannt wurden, kann man davon ausgehen, dass diese schlechte Er-kennung nicht an der Architektur, oder den Möglichkeiten des Modells liegt, sondern eher amfehlenden Kontext, gepaart mit einer für komplexe Emotionen zu geringen Darstellungsfähig-keit des Testroboters Loomo. Da für die meisten Aufgabenbereiche, die in Kapitel 1 genanntwurden grundlegende Emotionen als grobe Indikatoren ausreichen wird vorgeschlagen, wo esmöglich ist diese zu verwenden umMissverständnissen vorzubeugen und ein besseres Nutzer-erlebnis zu ermöglichen. Sollten trotzdem andere Emotionen verwendet werden wollen, ist esbesonders wichtig, diese möglichst exakt umsetzen zu können, also ein detailliertes Gesichtund möglichst viele bewegliche, manipulierbare Körperteile zu haben.Die vor allem in der Altenpflege, oder im Umgang mit behinderten Menschen, gewünschte

Multimodalität lässt sich zwar umsetzen, stößt aber sehr schnell an Grenzen, wenn nicht nurkurze Töne ausgegeben werden sollen, die eine Emotion charakterisieren, sondern die „Stim-me“ des Roboters manipuliert werden soll um beispielsweise zittrig zu klingen. Es zeigte sich inder Nutzerstudie auch, dass die Wahl der richtigen Tonausgabe sehr entscheidend ist, da da-durch die Erkennung sehr stark beeinflusst wird. So zum Beispiel bei der Emotion Angst, beider viele der Offline-Testpersonen nach dem Beantworten der Emotion den Schrei als irre-führend nannten. Dies ist vor allem für Sehbehinderte ein Problem, da diese ohne Tonausgabekeine Möglichkeit haben die Emotion zu erkennen. Eine mögliche Verbesserung dafür wäre dieEmotion konkret anzusagen, was allerdings für sehende wahrscheinlich zu sehr ungewohntenInteraktionen führen würde. Eine elegante Lösung für dieses Problem wäre den Roboter aufKommando erklären zu lassen wie er sich fühlt. Er würde also zuerst die Emotion gemäß demModell ausführen. Sollte diese Emotion nicht erkannt werden, kann über ein Sprachkommandogefragt werden, wie er sich fühlt, worauf eine Emotion genannt wird.

6.3 Ausblick

Eine Herausforderung, die bei Emotionsdarstellungen für Roboter nicht oft Beachtung findet,ist, dass Emotionen und deren Darstellung meist nur im Kontext des Menschen erforscht wer-den. Dadurch wird wenig auf die speziellen Fähigkeiten, oder Limitierungen von Robotern inihrer Darstellung und Ausdrucksweise eingegangen und das volle Potential der Roboter ausge-nutzt. Ein Beispiel, für ein solches Denken außerhalb gewohnter Grenzen der Emotionsdarstel-lung, wäre der Roboter Daryl [Emb+12] mit seinen LEDs im Rumpf.

58

Page 67: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

6.3 Ausblick

Im Kontext der Modelle wäre zum Beispiel eine Möglichkeit bestimmten Emotionen Farbenzuzuordnen, welche der Entwickler des entsprechenden Roboters dann selbständig auf etwaigzur Verfügung stehende LEDs übertragenmuss. Im Beispiel von Loomowäre bei einem umfang-reicheren SDK so möglich die Lichter in den Rädern, oder den Seiten des Kopfes bei Wut rot,oder bei Ekel grün leuchten zu lassen. Um dies wirklich sinnvoll und ohneMissverständnisse fürdie Person, die die Emotionen erkennen soll einzusetzen, müssten allerdings erst entsprechen-de Tests durchgeführt werden, ob Farben förderlich für das Verständnis sind, oder vielleichtsogar das Gegenteil.Eineweitere denkbare Erweiterung desModells bezüglich der binärenÜberprüfung, ob Emo-

tionen darstellbar sind, oder nicht, wäre es eine Zuversichtsskala einzubauen, mit der Emotio-nen erkannt werden können. Dabei würde je nachMenge der Bewegungen, des Modells, die derRoboter ausführen kann derWert steigen, oder sinken und ab einem bestimmtenWert die Dar-stellung abbrechen, obwohl jede verpflichtende Bewegung dargestellt werden kann, aber durchdas Fehlen der anderen Bewegungen eine Erkennung trotzdem nur noch sehr schwer möglichist.Darüber hinaus wäre eine denkbare Verbesserung die Modelle an mehreren unterschiedli-

chen Robotern zu testen und um spezielle Fähigkeiten zu erweitern. Mit den dadurch gesam-melten Ergebnissen wäre es möglich, die bis jetzt, aufgrund der vorhandenen Literatur, haupt-sächlich auf den Menschen ausgelegten Emotionsbestandteile, besser auf unterschiedliche Ro-boter und deren Fähigkeiten, bzw. Einschränkungen anzupassen.Da während der Recherche zu dieser Arbeit keinerlei andere Arbeiten bezüglichModellen zur

automatisierten Emotionsdarstellung bei Robotern gefundenwerden konnten, hier aber gezeigtwerden konnte, dass mit dem vorgestellten Modell grundlegende Emotionen sehr gut erkenn-bar dargestellt werden können, eröffnen sich viele neue Forschungsgebiete. Um zu überprüfen,wie gut nicht grundlegende Emotionen tatsächlich erkannt werden können ist es nötig klareBewegungsmuster dieser Emotionen zum Beispiel im Stile der FABO zu erforschen. Mit diesengenauen Bewegungsmustern könnten anschließend weitere Emotionsmodelle erstellt werden,mit welchen anschließende Nutzertests eine Aussage über die Erkennbarkeit liefern könnten.

59

Page 68: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 69: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

A Anhang

A.1 Befehlsliste

Die Befehlsliste enthält alle Befehle, die in den Modellen enthalten sein können. Außerdem sindfür verschiedene Komplexere Bewegungsmuster, wie zum Beispiel Kopfschütteln, genaue Ab-laufpläne enthalten.� �

1 Gesicht2 Augenbrauen3 Augenbrauen gesenkt4 Augenbrauen zusammengezogen5 Augenbrauen erhöht6 Augenbrauen nach unten gezogen7 Augenbrauen nach oben gezogen8 Augenbrauen innere Ecken nach oben gezogen9 Augenbrauen nach innen zusammengezogen10 Stirn11 Stirnfalten zusammengezogen12 Augenlid13 Oberes Augenlid erhöht14 Oberes Augenlid hängt15 Unteres Augenlid gespannt16 Unteres Augenlid erhöht17 Unteres Augenlid abgesenkt18 Unteres Augenlid nach unten gezogen19 Augenlider hängen herab20 Augenlider geschlossen21 Augenlid innere Ecke erhöht22 Augen23 Augen wandern rechts24 Augen wandern links25 Augen wandern oben26 Augen wandern unten27 Augen geöffnet28 Augen geschlossen29 Lippen30 Lippen ziehen31 Lippen zusammengezogen32 Lippen zusammengepresst33 Unterlippe erhöht34 Oberlippe gesenkt35 Lippen beißen36 Lippen Ecken nach oben gezogen37 Lippen Ecken nach unten gezogen38 Lippen Ecken nach hinten gezogen39 Oberlippe erhöht40 Oberlippe gesenkt

i

Page 70: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

A Anhang

41 Unterlippe erhöht42 Unterlippe gesenkt43 Unterlippe zur Oberlippe gedrückt44 Kinn45 Kinn fällt herunter46 Mund47 Mund geöffnet48 Mund schnell öffnen49 Nase50 Nase gerunzelt51 Backen52 Backen erhöht53 Kopf54 Kopf nach links geneigt55 Kopf nach rechts geneigt56 Kopf nach oben geneigt57 Kopf nach unten geneigt58 Kopfschütteln59 solange Zeitraum nicht überschritten60 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach links61 Kopf mit doppelter Geschwindigkeit und halber Bewegungsdauer nach rechts62 Kopf gebeugt63 Hände64 Hand berührt Ohr65 Hand berührt Nase66 Hand berührt Kinn67 Hand berührt Nacken68 Hand berührt Stirn69 Hand unter Kinn70 Hand berührt Mund71 Hand bedeckt Kopf72 Hand bedeckt Nacken73 Hand bedeckt Gesicht74 Hand gehoben75 Hand geht zum Kopf76 Hand kratzt Kopf77 Hände berühren Kopf78 Hände berühren Gesicht79 Hände berühren Mund80 Hände berühren Backen81 Hände berühren Stirn82 Hände auf Hüfte83 Hände geschlossen84 Hände zur Faust geballt85 Hände nah am Körper86 Hände über Gesicht87 Hände bedecken Gesicht88 Hände bedecken Nacken89 Hände gehen zum Kopf90 Hände zusammengepresst91 Hände öffnen92 Hände über Kopf93 Handflächen nach oben

ii

Page 71: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

A.1 Befehlsliste

94 Hände öffnen95 Innenseite nach oben96 Hand kratzt Kopf97 Hand geht zum Kopf98 Zeigefinger ausstrecken99 schnelle Vorwärts-/Rückwärtsbewegungen

100 Hände nach oben öffnen101 Hände öffnen102 Hände bewegen sich zueinander103 Hände berühren sich an Innenseiten104 Fingerzeig105 Zeigefinger ausgestreckt106 restliche Finger angewinkelt107 Arm heben108 Faust schütteln109 Hand zur Faust geballt110 Arm Auf-/Abwärtsbewegung111 Handflächen nach unten Geste112 Hände öffnen113 Handflächen nach unten zeigen114 Arme bewegen sich auf und ab115 Nägel beißen116 Hände leicht geschlossen117 Finger zu Mund bewegen118 kauen119 solange Zeitraum nicht überschritten120 Mund schließen121 Mund öffnen122 solange Finger vorhanden nächsten Finger zu Mund bewegen123 Hände klatschen124 solange Zeitraum nicht überschritten125 Hände bewegen sich schnell zusammen126 Arme127 Arme um Körper geschlungen128 Arme um Schultern geschlungen129 Arme heben130 Arme vom Körper strecken131 Arme nach vorn gestreckt132 Arme verschränkt133 linker Unterarm bewegt sich vor Brust nach rechts134 rechter Unterarm bewegt sich vor Brust nach links135 Oberkörper136 Oberkörper nach vorn gelehnt137 Schultern138 Schultern hängen herab139 Achselzucken140 schnelle Auf-/Abwärtsbewegung141 ganzer Körper142 Rückwärtsbewegung143 Richtungswechsel144 geweitet145 springen146 schaudern

iii

Page 72: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

A Anhang

147 ruckartige Flucht148 Bewegungsart149 wenig Bewegungen150 langsame Bewegungen151 leichte Bewegungen152 unausgeprägte Bewegungen153 schnelle Bewegungen� �

iv

Page 73: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Fragebogen zur EmotionserkennungIm Rahmen meiner Masterarbeit entwickle ich ein System zur Emotionsdarstellung bei Robotern. Zu diesem Zweck möchte ich Ihnen zunächst ein paar Fragen zu sich selbst stellen. Anschließend sollen Sie ein paar Videos betrachten und beantworten welche Emotion der Roboter in den Videos darstellt. Zum Abschluss bitte ich Sie noch um eine Bewertung der Aufgaben, die Sie in diesem Fragebogen absolvieren mussten. Insgesamt sollte die Bearbeitung nicht länger als 15 Minuten in Anspruch nehmen

* Erforderlich

1. Wie alt sind Sie? *

2. Welches Geschlecht haben Sie? *Markieren Sie nur ein Oval.

Männlich

Weiblich

3. Was ist ihr höchster Bildungsstand? *Markieren Sie nur ein Oval.

Kein Schulabschluss

Hauptschulabschluss

Mittlere Reife

Abitur

Abgeschlossene Ausbildung

Fachhochschulabschluss

Bachelor

Master

Diplom

Doktor

Professor

Sonstiges:

4. Welchen Beruf üben Sie aus?

Fragen zu EmotionenBitte sehen Sie sich der Reihe nach die Videos unter den jeweiligen Fragen an und tragen Sie anschließend die Emotion in das Antwortfeld darüber ein, welche Ihrer Meinung nach im Video dargestellt wird. Um eine größere Darstellung der Videos zu bekommen klicken Sie bitte nach dem Videostart auf "Youtube" in der unteren rechten Ecke des Players. Anschließend können Sie über den zurück Button des Browsers wieder zum Fragebogen wechseln.

A.2 Fragebogen

A.2 Fragebogen

Dieser Abschnitt enthält den über Google Docs erstellten Fragebogen zur Auswertung der Er-kennbarkeit der Emotionen.

v

Page 74: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

5. Welche Emotion stellt der Roboter dar? *

6. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

7. Welche Emotion stellt der Roboter dar? *

8. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

http://youtube.com/watch?v=facwK-psEXk

http://youtube.com/watch?v=BsdZdtk4sg8

Page 75: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

9. Welche Emotion stellt der Roboter dar? *

10. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

11. Welche Emotion stellt der Roboter dar? *

12. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

http://youtube.com/watch?v=y4Ixwcef5Qw

http://youtube.com/watch?v=vO9w4RcDF1s

Page 76: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

13. Welche Emotion stellt der Roboter dar? *

14. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

15. Welche Emotion stellt der Roboter dar? *

16. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

http://youtube.com/watch?v=j4Xpe2YqX_s

http://youtube.com/watch?v=baj1GjDOPI0

Page 77: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

17. Welche Emotion stellt der Roboter dar? *

18. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

19. Welche Emotion stellt der Roboter dar? *

20. Wie sicher sind Sie sich bei Ihrer Antwort? *Markieren Sie nur ein Oval.

1 2 3 4 5

nicht sicher ganz sicher

Fragen zum Test

http://youtube.com/watch?v=HXnbyuL-HNc

http://youtube.com/watch?v=sO9e-hk81u8

Page 78: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Um herauszufinden, wie leicht, oder schwer Ihnen die Erkennung der Emotionen gefallen ist möchte ich Sie bitten im Folgenden Abschnitt ein paar Fragen zum Test zu beantworten.

21. Wie viel geistige Anforderung war bei der Informationsaufnahme und bei derInformationsverarbeitung erforderlich (z.B. Denken, Entscheiden, Rechnen, Erinnern,Hinsehen, Suchen ...)? War die Aufgabe leicht oder anspruchsvoll, einfach oder komplex,erfordert sie hohe Genauigkeit oder ist sie fehlertolerant? *Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

gering hoch

22. Wie viel körperliche Aktivität war erforderlich (z.B. ziehen, drücken, drehen, steuern,aktivieren ...)? War die Aufgabe leicht oder schwer, einfach oder anstrengend, erholsamoder mühselig? *Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

gering hoch

23. Wie viel Zeitdruck empfanden Sie hinsichtlich der Häufigkeit oder dem Takt mit dem dieAufgaben oder Aufgabenelemente auftraten? War die Aufgabe langsam und geruhsamoder schnell und hektisch? *Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

gering hoch

24. Wie erfolgreich haben Sie Ihrer Meinung nach die vom Versuchsleiter (oder Ihnen selbst)gesetzten Ziele erreicht? Wie zufrieden waren Sie mit Ihrer Leistung bei der Verfolgungdieser Ziele? *Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

erfolgreich nichterfolgreich

25. Wie hart mussten Sie arbeiten, um Ihren Grad an Aufgabenerfüllung zu erreichen? *Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

gering hoch

26. Wie unsicher, entmutigt, irritiert, gestresst und verärgert (versus sicher, bestätigt,zufrieden, entspannt und zufrieden mit sich selbst) fühlten Sie sich während der Aufgabe?Markieren Sie nur ein Oval.

1 2 3 4 5 6 7 8 9 10

gering hoch

Page 79: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

In diesem Abschnitt werden Sie gebeten jeweils das bedeutsamere Attribut für die Emotionserkennung auszwählen. Zeitliche Anforderung: Wie viel Zeitdruck empfanden Sie hinsichtlich der Häufigkeit oder dem Takt mit dem die Aufgaben oder Aufgabenelemente auftraten? War die Aufgabe langsam und geruhsam oder schnell und hektisch? Frustration: Wie unsicher, entmutigt, irritiert, gestresst und verärgert (versus sicher, bestätigt, zufrieden, entspannt und zufrieden mit sich selbst) fühlten Sie sich während der Aufgabe? Körperliche Anforderung: Wie viel körperliche Aktivität war erforderlich (z.B. ziehen, drücken, drehen, steuern, aktivieren ...)? War die Aufgabe leicht oder schwer, einfach oder anstrengend, erholsam oder mühselig? Anstrengung: Wie hart mussten Sie arbeiten, um Ihren Grad an Aufgabenerfüllung zu erreichen? Geistige Anforderung: Wie viel geistige Anforderung war bei der Informationsaufnahme und bei der Informationsverarbeitung erforderlich (z.B. Denken, Entscheiden, Rechnen, Erinnern, Hinsehen, Suchen ...)? War die Aufgabe leicht oder anspruchsvoll, einfach oder komplex, erfordert sie hohe Genauigkeit oder ist sie fehlertolerant? Leistung: Wie erfolgreich haben Sie Ihrer Meinung nach die vom Versuchsleiter (oder Ihnen selbst) gesetzten Ziele erreicht? Wie zufrieden waren Sie mit Ihrer Leistung bei der Verfolgung dieser Ziele?

27. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

geistige Anforderung

körperliche Anforderung

28. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

zeitliche Anforderung

Anstrengung

29. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Frustration

Anstrengung

30. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Zeitliche Anforderung

Frustration

31. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Geistige Anforderung

Anstrengung

32. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Zeitliche Anforderung

Geistige Anforderung

Page 80: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

33. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Anstrengung

Leistung

34. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Leistung

Zeitliche Anforderung

35. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Körperliche Anforderung

Leistung

36. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Frustration

Geistige Anforderung

37. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Körperliche Anforderung

Zeitliche Anforderung

38. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Körperliche Anforderung

Frustration

39. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Leistung

Frustration

40. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Anstrengung

Körperliche Anforderung

41. Welches Attribut war bedeutsamer? *Markieren Sie nur ein Oval.

Leistung

Geistige Anforderung

Page 81: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Bereitgestellt von

AbschlussVielen Dank für Ihre Teilnahme! Zum Abschluss des Tests klicken Sie bitte unter dem Video auf "Senden"

http://youtube.com/watch?v=facwK-psEXk

Page 82: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

A Anhang

A.2.1 Ergebnisse des Fragebogens

Die nachfolgenden Seiten enthalten alle Antworten der Teilnehmer der Nutzerstudie. Auf derletzten Seite des eingebauten Dokuments ist durch das Feld offline ersichtlich welche Teilneh-mer an der tatsächlichen Befragung und welche am Online-Fragebogen teilnahmen.

xiv

Page 83: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Zeitstempel Wie alt sind Sie? Welches Geschlecht haben Sie? Welche Emotion stellt der Roboter dar? Welche Emotion stellt der Roboter dar?17.01.2018 15:01:36 25 Weiblich freut sich Alarm17.01.2018 17:38:53 27 Männlich Freude Ärger 18.01.2018 16:22:01 27 Männlich Freude Angst19.01.2018 17:16:09 54 Weiblich Jubel Angst19.01.2018 17:41:09 57 Männlich Freude Angst19.01.2018 18:52:35 89 Weiblich Lustig Spinnt19.01.2018 19:04:05 22 Weiblich freudig, lustig unentschlossen 19.01.2018 19:15:40 23 Männlich freudig gelangweilt, unentschlossen22.01.2018 14:03:59 29 Männlich Freude Furcht23.01.2018 09:29:16 27 Weiblich erfreut erschrocken23.01.2018 09:42:54 29 Weiblich glücklich erschrocken23.01.2018 11:04:01 28 Männlich fröhlich / glück Angst25.01.2018 12:50:17 27 Weiblich Glücklich Gelangweilt 25.01.2018 13:38:39 27 Männlich Freude Angst26.01.2018 08:14:24 28 Weiblich Freude Wut26.01.2018 09:03:02 30 Männlich Freude Angst26.01.2018 09:58:19 26 Männlich Freude Angst26.01.2018 12:36:43 28 Männlich Freude Überraschung oder Angst27.01.2018 00:49:31 26 Männlich Interesse Ablehnung27.01.2018 12:58:52 27 Männlich glücklich Furcht29.01.2018 13:31:42 24 Weiblich Freude Erschrecken30.01.2018 07:59:52 28 Männlich Fröhlich / vorfreude Nervös / unwohl 30.01.2018 08:53:44 24 Männlich Zufrieden Nervös 30.01.2018 09:44:13 27 Männlich Freude Nervosität 30.01.2018 20:50:28 27 Männlich Lächeln Ungelduldig

A.2Fragebogenxv

Page 84: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welche Emotion stellt der Roboter dar? Welche Emotion stellt der Roboter dar? Welche Emotion stellt der Roboter dar? Welche Emotion stellt der Roboter dar?müde Ekel traurig erschrockenNachdenklich Abneigung Traurigkeit Erstaunen Müde Angewidert Traurig Erschrockenüberlegen Ekel traurig ablehnenSkeptisch Unbehagen Traurig Wütendschnappt nach luft der druckt wen wehklagen fauchtgrimmig genervt nachdenklich, traurig erstauntnachdenklich angeekelt traurig erstauntMüde Ekel Traurigkeit Überraschungbedrückt angewiedert traurig überraschtzufrieden angeekelt enttäuscht erschrockenschüchtern eckelt sich traurig ÜberraschungGleichgültig Verzweifelt Traurig ErstauntVerunsicherung Trauer Trauer Überrascht seinGleichgültigkeit Trauer Trauer AggressionLangeweile Anstrengung Trauer Überraschunggelangweilt Ekel traurig erschrocken/verwundertGleichgültigkeit oder Skepsis Unbehagen Enttäuschung/Traurigkeit Überraschung/ErstaunenSchmerz Ekel Traurigkeit Erstaunennachdenklich Ekel traurig ÜberraschungÜberlegen Angewidert Traurigkeit ÜberraschungNachdenklich / traurig Schmerzen Traurig Erstaunt Schläfrig Angeekelt Traurig Fasziniert Skepsis Ekel Trauer Erstaunen Genervt Schmerz Traurig Erstaunt

AAnhang

xvi

Page 85: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welche Emotion stellt der Roboter dar? Welche Emotion stellt der Roboter dar? Geistige Anstrengung Körperliche Anstrengung Zeitdruck Erfolggenervt, erschöpft verärgert 7 1 5 2Erschrocken Wut 7 1 1 5Nachdenklich zornig 7 1 4 3müde erschrecken 8 1 1 3Unbehagen Aggressiv 8 2 2 3unentschlossen furchterregend 1 1 1 4grimmig grantig, böse 1 1 1 8müde wütend 1 1 1 3Müde Wut 7 1 1 3glücklich verärgert 2 1 1 3eingeschüchtert unzufrieden 2 1 1 3skeptisch Ärgert sich 2 1 1 2Traurig Wütend 4 1 5 3Unsicherheit Wut 7 6 5 5Misstrauen ? 6 1 4 7Hoffnungslosigkeit Wut 7 4 3 3traurig/müde Wut 7 5 3 1Sehr schwer zu erkennen, aber Gesichtsausdruck ließe sich als Skepsis, aber auch Gleichgültigkeit interpretieren sowie den bewussten Ausdruck von Emotionslosigkeit.Drohgebärde / Zorn 6 3 5 4Scham Angriffslust 8 8 2 8Müde Wut 3 1 1 3Müdigkeit Ärger 5 1 2 6Müde Böse / grantig 4 2 3 3Misstrauisch Böse 7 1 6 5Müdigkeit Wut 4 1 1 4Müde Wut 6 5 4 6

A.2Fragebogen

xvii

Page 86: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Wie hart mussten Sie arbeiten? Wie unsicher, entmutigt...? Was ist ihr höchster Bildungsstand?3 3 Bachelor3 3 Master5 6 Bachelor4 7 Hauptschulabschluss2 2 Fachhochschulabschluss2 1 Abgeschlossene Ausbildung2 2 Abgeschlossene Ausbildung1 2 Abgeschlossene Ausbildung9 4 Master1 1 Bachelor3 9 Master1 1 Bachelor5 3 Bachelor6 3 Master4 9 Abgeschlossene Ausbildung4 9 Abitur6 7 Abitur2 4 Master4 8 Abitur3 3 Meister4 3 Abgeschlossene Ausbildung2 2 Meister5 7 Abitur4 2 Diplom5 7 Abitur

AAnhang

xviii

Page 87: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welchen Beruf üben Sie aus? Wie sicher sind Sie sich bei Ihrer Antwort? Wie sicher sind Sie sich bei Ihrer Antwort? Wie sicher sind Sie sich bei Ihrer Antwort?Student BWL 4 2 3Student 5 2 1Mobile-Developer 5 3 4Bürokauffrau 4 4 3Beamter 5 5 5Näherin 4 5 3Kauffrau für Büromanagement 4 3 4Angestellter öffentlicher Dienst 5 3 3Software Entwickler 5 3 2Angestellt AgentCallCenter 5 5 4Redakteurin 4 4 4Software developer 5 5 3Student 5 2 3Wissenschaftlicher Mitarbeiter 4 2 3Kfm. Angestellte 4 5 2Rettungsassistent 5 3 3Student 5 3 3Technische Redaktion 4 1 2

5 3 4Anlagenmechaniker Sanitär-, Heizungs- und Klimatechnik 5 3 2Bürokauffrau 5 3 2Anlagenmechaniker SHK 3 4 5Student 3 4 4Planungsingenieur 4 1 2Bauzeichner 5 3 1

4,48 3,24 3 A.2Fragebogen

xix

Page 88: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Wie sicher sind Sie sich bei Ihrer Antwort? Wie sicher sind Sie sich bei Ihrer Antwort? Wie sicher sind Sie sich bei Ihrer Antwort?4 5 43 5 54 5 45 5 23 5 35 4 35 5 35 5 54 5 55 4 55 4 55 5 53 5 14 5 53 5 43 5 44 4 54 3 44 5 54 5 44 5 54 5 44 5 34 5 43 5 3

4,04 4,76 4

AAnhang

xx

Page 89: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Wie sicher sind Sie sich bei Ihrer Antwort? Wie sicher sind Sie sich bei Ihrer Antwort? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer?3 5 geistige Anforderung Anstrengung2 4 geistige Anforderung zeitliche Anforderung4 5 geistige Anforderung Anstrengung2 2 geistige Anforderung Anstrengung3 5 geistige Anforderung zeitliche Anforderung2 4 geistige Anforderung Anstrengung3 3 geistige Anforderung zeitliche Anforderung3 5 geistige Anforderung zeitliche Anforderung1 4 geistige Anforderung Anstrengung5 5 geistige Anforderung zeitliche Anforderung1 5 geistige Anforderung Anstrengung4 5 geistige Anforderung Anstrengung5 4 geistige Anforderung Anstrengung4 4 geistige Anforderung Anstrengung3 1 geistige Anforderung zeitliche Anforderung4 5 geistige Anforderung Anstrengung3 5 geistige Anforderung Anstrengung1 3 geistige Anforderung zeitliche Anforderung2 4 geistige Anforderung Anstrengung2 4 geistige Anforderung Anstrengung1 4 geistige Anforderung Anstrengung4 5 geistige Anforderung zeitliche Anforderung3 4 geistige Anforderung Anstrengung2 4 geistige Anforderung zeitliche Anforderung1 3 geistige Anforderung Anstrengung

2,72 4,08 A.2Fragebogen

xxi

Page 90: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer?Anstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungFrustration Zeitliche Anforderung Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungFrustration Frustration Geistige Anforderung Zeitliche AnforderungFrustration Frustration Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Zeitliche AnforderungAnstrengung Frustration Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Zeitliche AnforderungAnstrengung Frustration Anstrengung Geistige AnforderungAnstrengung Frustration Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungAnstrengung Frustration Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungFrustration Frustration Anstrengung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungFrustration Zeitliche Anforderung Geistige Anforderung Geistige AnforderungFrustration Frustration Geistige Anforderung Geistige AnforderungAnstrengung Frustration Geistige Anforderung Geistige AnforderungFrustration Frustration Geistige Anforderung Geistige AnforderungFrustration Zeitliche Anforderung Geistige Anforderung Zeitliche AnforderungFrustration Frustration Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Geistige Anforderung Geistige Anforderung

AAnhang

xxii

Page 91: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer?Anstrengung Zeitliche Anforderung Körperlihce Anforderung Geistige AnforderungAnstrengung Zeitliche Anforderung Leistung Geistige AnforderungLeistung Zeitliche Anforderung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungLeistung Leistung Leistung FrustrationLeistung Leistung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungLeistung Zeitliche Anforderung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungAnstrengung Zeitliche Anforderung Leistung Geistige AnforderungLeistung Leistung Leistung FrustrationAnstrengung Leistung Leistung Geistige AnforderungLeistung Zeitliche Anforderung Leistung Geistige AnforderungAnstrengung Leistung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungAnstrengung Leistung Körperliche Anforderung FrustrationAnstrengung Leistung Körperliche Anforderung Geistige AnforderungLeistung Zeitliche Anforderung Leistung Geistige AnforderungAnstrengung Zeitliche Anforderung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungLeistung Leistung Leistung Geistige AnforderungAnstrengung Zeitliche Anforderung Leistung FrustrationAnstrengung Zeitliche Anforderung Leistung FrustrationLeistung Leistung Leistung Geistige AnforderungLeistung Zeitliche Anforderung Leistung Geistige Anforderung

A.2Fragebogen

xxiii

Page 92: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer? Welches Attribut war bedeutsamer?Körperliche Anforderung Körperliche Anforderung Frustration Körperliche AnforderungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Frustration AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Frustration AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Körperliche Anforderung Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungKörperliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungKörperliche Anforderung Körperliche Anforderung Leistung AnstrengungZeitliche Anforderung Körperliche Anforderung Leistung AnstrengungKörperliche Anforderung Frustration Frustration AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Frustration Frustration AnstrengungZeitliche Anforderung Frustration Leistung AnstrengungZeitliche Anforderung Körperliche Anforderung Frustration AnstrengungZeitliche Anforderung Frustration Frustration AnstrengungZeitliche Anforderung Frustration Frustration AnstrengungKörperliche Anforderung Körperliche Anforderung Leistung AnstrengungZeitliche Anforderung Frustration Frustration Anstrengung

AAnhang

xxiv

Page 93: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Welches Attribut war bedeutsamer? Online/OfflineGeistige Anforderung offlineGeistige AnforderungLeistung offlineLeistungGeistige AnforderungGeistige AnforderungLeistungGeistige AnforderungGeistige AnforderungGeistige Anforderung offlineLeistung offlineGeistige Anforderung offlineGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungGeistige AnforderungLeistung

A.2Fragebogen

xxv

Page 94: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter
Page 95: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Abbildungsverzeichnis

2.1 Uncanny Valley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.2 Iromec . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.3 Lernroboter KASPAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.4 Altenpflegeroboter Paro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.5 Pflegeroboter Huggable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.6 Nao beim Robocup 2006 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.7 Daryl führt die Emotion glücklich sein aus . . . . . . . . . . . . . . . . . . . . . . . 142.8 Unterhaltungsroboter Cozmo der Firma Anki . . . . . . . . . . . . . . . . . . . . . . 14

3.1 Beispiel eines zum Emotionsmodell erweiterten Feature Modells . . . . . . . . . . 203.2 Modell der Emotion Wut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253.3 Modell der Emotion Angst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263.4 Modell der Emotion Beklemmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.5 Modell der Emotion Glück . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.6 Modell der Emotion Ekel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293.7 Modell der Emotion Traurigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.8 Modell der Emotion Überraschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.9 Modell der Emotion Unsicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4.1 Loomo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.2 Screenshot von Loomos Gesicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384.3 Vereinfachtes Klassendiagramm der Beziehungen zwischen App und Bibliothek . 394.4 Graphische Darstellung des Algorithmus zur Emotionsumwandlung . . . . . . . . 42

5.1 Antworten für die Emotion Freude . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495.2 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Freude waren . . . 495.3 Antworten der Emotion Angst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505.4 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Angst waren . . . . 505.5 Antworten der Emotion Unsicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . 515.6 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Unsicherheit waren 515.7 Antworten der Emotion Ekel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525.8 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Ekel waren . . . . . 525.9 Antworten der Emotion Traurigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . 535.10 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Traurigkeit waren . 535.11 Antworten der Emotion Überraschung . . . . . . . . . . . . . . . . . . . . . . . . . 545.12 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Überraschung waren 545.13 Antworten der Emotion Beklemmung . . . . . . . . . . . . . . . . . . . . . . . . . . 555.14 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Beklemmung waren 555.15 Antworten der Emotion Wut . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565.16 Verteilung wie sicher sich Testpersonen bei ihrer Antwort zu Wut waren . . . . . 56

xxvii

Page 96: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Abkürzungsverzeichnis

ANS Autonomes Nervensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

FABO Gestendatenbank für Gesichts- und Körpergesten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

JSON Javascript Object Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

NES Neuro-endokrines System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

SDK Software Devolpment Kit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

SNS Somatisches Nervensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

TLX Task Load Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

XML Extensible Markup Language . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

ZNS Zentrales Nervensystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

Tabellenverzeichnis

2.1 Beziehung zwischen Subsystemen vonOrganismenundden FunktionenundKom-ponenten von Emotionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2.2 Gesichtsausdrücke und Körperbewegungen der FABO Teil 1 . . . . . . . . . . . . . 62.3 Gesichtsausdrücke und Körperbewegungen der FABO Teil 2 . . . . . . . . . . . . . 72.4 Überblick über Körperbewegungen und Haltungen . . . . . . . . . . . . . . . . . . 8

Quellcodeverzeichnis

3.1 Beispielausschnitt aus einem JSON-Modell . . . . . . . . . . . . . . . . . . . . . . . 33

4.1 Initialisierung des Kopfes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404.2 Laden des JSON-Objekts aus der Datei . . . . . . . . . . . . . . . . . . . . . . . . . 404.3 Beispielinitialisierung eines Körperteils . . . . . . . . . . . . . . . . . . . . . . . . . 404.4 Befehl zum Start der Emotionsdarstellung . . . . . . . . . . . . . . . . . . . . . . . 404.5 Algorithmus zur Umwandlung der Modelle in dargestellte Emotionen . . . . . . . 43

includes/befehlsliste.txt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i

xxviii

Page 97: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Literatur

[Ank] Anki. Anki Cozmo - The Robot Has a Mind of His Own | Anki. URL: https://www.anki.com/de-de/cozmo (besucht am 08. 11. 2017) (siehe S. 14).

[Ave83] J R Averill. “Studies on anger and aggression. Implications for theories of emotion.”In: The American psychologist 38.11 (1983), S. 1145–1160. DOI: 10.1037/0003-066X.38.11.1145 (siehe S. 5).

[BCB10] Aryel Beck, Lola Cañamero und Kim A. Bard. “Towards an Affect Space for robotsto display emotional body language”. In: Proceedings - IEEE International Workshopon Robot and Human Interactive Communication (2010), S. 464–469. DOI: 10.1109/ROMAN.2010.5598649 (siehe S. 5).

[Bre09] Cynthia Breazeal. “Role of expressive behaviour for robots that learn from people.”In: Philosophical transactions of the Royal Society of London. Series B, Biological sci-ences 364.1535 (2009), S. 3527–38. DOI: 10.1098/rstb.2009.0157. URL: http://rstb.royalsocietypublishing.org/content/364/1535/3527.short (sieheS. 1).

[Bun17] Bundesgesundheitsministerium. Pflegefachkräftemangel | Bundesgesundheitsminis-terium. 2017. URL: https://www.bundesgesundheitsministerium.de/themen/pflege/pflegestaerkungsgesetze/pflegekraefte/pflegefachkraeftemangel.html (besucht am 14. 10. 2017) (siehe S. 1).

[Cal] Calmclinic.com. How Anxiety Can Affect Speech Patterns. URL: https://www.calmclinic.com/anxiety/speech-patterns (besucht am 15. 11. 2017) (siehe S. 23).

[Cam+15] David Cameron, Samuel Fernando, Emily Collins, Abigail Millings, Roger K Moore,Amanda Sharkey, Vanessa Evers und Tony Prescott. “Presence of life-like robot ex-pressions influences children’s enjoyment of human-robot interactions in the field”.In: Fourth International Symposium on New Frontiers in Human-Robot Interaction,AISB-2015 (2015), S. 1–6 (siehe S. 11).

[Cor00] Randolf R. Cornelius. “Theoretical Approaches To Emotion”. In: 612870 (2000) (sieheS. 4 f.).

[Coz] Cozmo. Anki. URL: https://images-na.ssl-images-amazon.com/images/I/51V73pQXYfL.%7B%5C_%7DSY355%7B%5C_%7D.jpg (besucht am 08. 11. 2017) (sieheS. 14).

[CVI97] Randall C. Colvin, Dawne Vogt undWilliam Ickes. “WhyDo Friends Understand EachOther Better Than Strangers Do”. In: Empathic accuracy. New York, NY: GuilfordPress, 1997. Kap. 6, S. 169–193 (siehe S. 9).

[Dar97] Charles Darwin. “The expression of emotions in man and animals”. In: D. Appletonand Company 3 (1897), S. 371. DOI: 10.1097/00000441-195610000-00024 (sieheS. 18, 22–24, 48).

xxix

Page 98: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Literatur

[Dau+09] Kerstin Dautenhahn, Chrystopher L. Nehaniv, Michael L. Walters, Ben Robins, Ha-tice Kose-Bagci, N. Assif Mirza und Mike Blow. “KASPAR - a minimally expressi-ve humanoid robot for human-robot interaction research”. In: Applied Bionics andBiomechanics 6.3-4 (2009), S. 369–397. DOI: 10.1080/11762320903123567 (sieheS. 12).

[Dau02] Kerstin Dautenhahn. “Design spaces and niche spaces of believable social robots”.In: Proceedings - IEEE InternationalWorkshop on Robot andHuman Interactive Com-munication (2002), S. 192–197. DOI: 10.1109/ROMAN.2002.1045621 (siehe S. 11).

[Dau99] Kerstin Dautenhahn. “Robots as social actors: Aurora and the case of autism”. In:Proceedings Third Cognitive Technology Conference CT’99 359.3 (1999), S. 359–374.DOI: 10.1.1.190.1767 (siehe S. 11).

[EF74] Paul Ekman undWallace Friesen v. “Detecting Deception from the Body or Face”. In:Journal of Personality and Social Psychology 29.3 (1974), S. 288–298. DOI: 10.1037/h0036006. URL: https://www.paulekman.com/wp-content/uploads/2013/07/Detecting-Deception-From-The-Body-Or-Face.pdf (siehe S. 5).

[Ekm92] Paul Ekman. An argument for basic emotions. 1992. DOI: 10.1080/02699939208411068. arXiv: a (siehe S. 4 f., 15).

[Emb+12] Stephanie Embgen, Matthias Luber, Christian Becker-Asano, Marco Ragni, VanessaEvers und Kai O. Arras. “Robot-specific social cues in emotional body language”. In:Proceedings - IEEE International Workshop on Robot and Human Interactive Com-munication (2012), S. 1019–1025. DOI: 10.1109/ROMAN.2012.6343883 (siehe S. 14,58).

[Gel09] B. de Gelder. “Why bodies? Twelve reasons for including bodily expressions in af-fective neuroscience”. In: Philosophical Transactions of the Royal Society B: Biologi-cal Sciences 364.1535 (2009), S. 3475–3484. DOI: 10.1098/rstb.2009.0190. URL:http://rstb.royalsocietypublishing.org/cgi/doi/10.1098/rstb.2009.0190 (siehe S. 10).

[Gou+09] David Gouaillier, Vincent Hugel, Pierre Blazevic, Chris Kilner, Jerome Monceaux,Pascal Lafourcade, Brice Marnier, Julien Serre und BrunoMaisonnier. “Mechatronicdesign of NAO humanoid”. In: 2009 IEEE International Conference on Robotics andAutomation June (2009), S. 769–774. DOI: 10.1109/ROBOT.2009.5152516. URL:http://ieeexplore.ieee.org/document/5152516/ (siehe S. 14).

[GP06] Hatice Gunes und Massimo Piccardi. “Bimodal face and body gesture database forautomatic analysis of human nonverbal affective behavior”. In: Proceedings - Inter-national Conference on Pattern Recognition 1 (2006), S. 1148–1153. DOI: 10.1109/ICPR.2006.39 (siehe S. 5–7, 23 f.).

[Hes01] Ursula Hess. “The communication of emotion”. In: Emotion, Qualia and Conscious-ness (2001), S. 397–409 (siehe S. 4 f., 9).

[Jam84] William James. “What is an Emotion”. In:Mind 9.34 (1884), S. 188–205 (siehe S. 4, 57).

[Kan+90] Kyo C Kang, Sholom G Cohen, James a Hess, William E Novak und a Spencer Pe-terson. “Feature-Oriented Domain Analysis (FODA) Feasibility Study”. In: Distribu-tion 17.November (1990), S. 161. DOI: 10.1080/10629360701306050. URL: http://www.sei.cmu.edu/reports/90tr021.pdf (siehe S. 19).

xxx

Page 99: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

[KJ79] Robert E. Kraut und Robert E. Johnston. “Social and emotional messages of smiling:An ethological approach.” In: Journal of Personality and Social Psychology 37.9 (1979),S. 1539–1553. DOI: 10.1037/0022-3514.37.9.1539. URL: http://psycnet.apa.org/psycinfo/1981-01226-001 (siehe S. 4).

[Koh+04] Christian G. Kohler, Travis Turner, Neal M. Stolar,Warren B. Bilker, ColleenM. Bren-singer, Raquel E. Gur und Ruben C. Gur. “Differences in facial expressions of fouruniversal emotions”. In: Psychiatry Research 128.3 (2004), S. 235–244. DOI: 10.1016/j.psychres.2004.07.003 (siehe S. 9).

[Mar10] Patrizia Marti. “Bringing playfulness to disabilities”. In: Proceedings of the 6th NordicConference on Human-Computer Interaction Extending Boundaries - NordiCHI ’10June (2010), S. 851. DOI: 10.1145/1868914.1869046 (siehe S. 11 f.).

[MHG05] H. K. M. Meeren, C. C. R. J. van Heijnsbergen und B. de Gelder. “Rapid perceptualintegration of facial expression and emotional body language”. In: Proceedings of theNational Academy of Sciences 102.45 (2005), S. 16518–16523. DOI: 10.1073/pnas.0507650102. URL: http://www.pnas.org/cgi/doi/10.1073/pnas.0507650102(siehe S. 10).

[MM15] Stefan Marr und Stefan Marr. “Feature-Diagramme und Variabilität”. In: May (2015)(siehe S. 19 f.).

[MN89] Lake McClenney und Rob Neiss. “Posthypnotic suggestion: A method for the studyof nonverbal communication”. In: Journal of Nonverbal Behavior 13.1 (1989), S. 37–45.DOI: 10.1007/BF01006472 (siehe S. 5).

[Mor70] M. Mori. “The Uncanny Valley”. In: Energy 7.Energy 7 (1970), S. 33–35 (siehe S. 10 f.).

[SB05] Walter Dan Stiehl und Cynthia Breazeal. “Affective Touch for Robotic Companions 2The Huggable : A Therapeutic Robotic Companion for Relational , Affective Touch”.In: (2005), S. 747–754 (siehe S. 1).

[Sch05] Klaus R. Scherer. “What are emotions? And how can they be measured?” In: Soci-al Science Information 44.4 (2005), S. 695–729. DOI: 10.1177/0539018405058216(siehe S. 3 f.).

[Sch87] K R Scherer. “Toward a dynamic theory of emotion”. In: Geneva Studies in Emotion 1(1987), S. 1–96. DOI: 10.1017/CBO9781107415324.004. arXiv: arXiv:1011.1669v3(siehe S. 3, 57).

[Seg] Segwayrobotics. Loomo Enterprise – Innovate Together. URL: http://www.segwayrobotics.com/product (besucht am 14. 10. 2017) (siehe S. 2).

[Shi12] Takanori Shibata. “Therapeutic seal robot as biofeedback medical device: Qualita-tive and quantitative evaluations of robot therapy in dementia care”. In: Proceedingsof the IEEE 100.8 (2012), S. 2527–2538. DOI: 10.1109/JPROC.2012.2200559 (sieheS. 12 f.).

[Spe+64] Joseph C Speisman, Richard S Lazarus, Arnold Mordkoff und Les Davison. “Expe-rimental reduction of stress based on ego-defense theory.” In: Journal of Abnormaland Social Psychology 68.4 (1964), S. 367–380. DOI: 10.1037/h0048936 (siehe S. 5).

xxxi

Page 100: Modellierung von Emotionen mittels assistiver Roboter · 2019. 7. 23. · Erklärung Icherkläre,dassichdievorliegendeArbeitmitdemTitelModellierung von Emotionen mittels assistiverRoboter

Literatur

[Sti+09] Walter Dan Stiehl, Jun Ki Lee, Cynthia Breazeal, Marco Nalin, Angelica Morandi undAlberto Sanna. “The Huggable: A Platform for Research in Robotic Companions forPediatric Care”. In: Proceedings of the 8th International Conference on InteractionDesign and Children - IDC ’09 (2009), S. 317–320. DOI: 10.1145/1551788.1551872.URL: http://portal.acm.org/citation.cfm?doid=1551788.1551872 (sieheS. 12).

[STW16] Tal Shafir, Rachelle P. Tsachor und Kathleen B. Welch. “Emotion regulation throughmovement: Unique Sets of Movement Characteristics are Associated with and En-hance Basic Emotions”. In: Frontiers in Psychology 6.JAN (2016), S. 1–15. DOI: 10.3389/fpsyg.2015.02030 (siehe S. 23).

[Uni] UniMagdeburg. FeatureIDE: Scalable Product Configuration of Variable Systems. URL:https://featureide.github.io/ (besucht am 09. 11. 2017) (siehe S. 20).

[Wad+03] K. Wada, T. Shibata, T. Saito und K. Tanie. “Effects of robot assisted activity to el-derly people who stay at a health service facility for the aged”. In: Proceedings 2003IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003)(Cat. No.03CH37453) 3.October (2003), S. 2847–2852. DOI: 10.1109/IROS.2003.1249302. URL: http://ieeexplore.ieee.org/document/1249302/ (siehe S. 1, 12).

[Wal98] Harald G. Wallbott. “Bodily expression of emotion”. In: European Journal of SocialPsychology 28.6 (1998), S. 879–896. DOI: 10.1002/(SICI)1099-0992(1998110)28:6<879::AID-EJSP901>3.0.CO;2-W (siehe S. 5, 8, 23 f.).

[Weg+17] MartinWegrzyn,Maria Vogt, Berna Kireclioglu, Julia Schneider und Johanna Kissler.“Mapping the emotional face. How individual face parts contribute to successfulemotion recognition.” In: PloS one 12.5 (2017), e0177239. DOI: 10.1371/journal.pone.0177239. URL: http://www.ncbi.nlm.nih.gov/pubmed/28493921%20http://www.pubmedcentral.nih.gov/articlerender.fcgi?artid=PMC5426715 (siehe S. 37).

xxxii