Human–Computer Interaction - Usability Engineering im Bildungskontext

8

description

Kapitel des L3T Lehrbuch (http://l3t.eu)

Transcript of Human–Computer Interaction - Usability Engineering im Bildungskontext

Page 1: Human–Computer Interaction - Usability Engineering im Bildungskontext
Page 2: Human–Computer Interaction - Usability Engineering im Bildungskontext

2  —  Lehrbuch  für  Lernen  und  Lehren  mit  Technologien  (L3T)

1. Einführung

Human-Computer Interaction (HCI) ist ein erst seitrund 30 Jahren etabliertes Teilgebiet der Informatik,das mit der Verbreitung so genannter grafischer Be-nutzeroberflächen (Shneiderman, 1983) entstand undseit Beginn versucht, die Brücke zwischen Informatikund Psychologie zu verbreitern.

Während die klassische HCI-Forschung (Card etal., 1983; Norman, 1986) sich auf das Zusammen-spiel zwischen Mensch-Aufgabe-Computer konzen-trierte, widmet sich die neuere HCI-Forschung,neben der Erforschung neuer Interaktionspara-digmen, zum Beispiel intelligente, adaptive, personali-sierte Benutzeroberflächen, Augmented Non-Clas-sical Interfaces, aber auch Social Computing, vorallem der Erhöhung der Effektivität und Effizienzdes Zusammenwirkens menschlicher und technischerPerformanz. Und genau damit wird HCI-Wissengrundlegend zur Optimierung technologiegestütztenLehrens und Lernens (Niegemann et al., 2008), ins-besondere im Bereich der Interaktion zwischen zu-künftigen semantischen Technologien und mensch-lichen Wissensräumen (Cuhls, Ganz & Warnke,2009).

2. Interak2on  und  Interak2vität

Interaktion ist eigentlich ein psychologischer Begriffund bezeichnet einen auf der Basis gewisser Erwar-tungen, Einstellungen und Bewertungen beruhendenAustausch (von Information) auf sprachlicher odernichtsprachlicher (symbolischer) Ebene. Interaktionist also eng mit dem Begriff Kommunikation ver-bunden. Darum wird im Deutschen HCI auch oft alsMensch-Computer Kommunikation bezeichnet.Interaktivität hingegen ist ein technischer Begriff derMöglichkeiten und Eigenschaften des Computers be-zeichnet, den Benutzern verschiedene Eingriffs-, Ma-nipulations- und Steuerungsmöglichkeiten zu ermög-lichen (Abbildung 1).

Interaktivität wird zu einem didaktisch wichtigenTeil des technologiegestützten Lernens gezählt(Schulmeister, 2002), insbesondere weil Interaktivitätdie Möglichkeit bietet, dass die Endbenutzerinnenund Endbenutzer die Auswahl, die Art und die Prä-sentation von Informationen manipulieren und damitihrem individuellen Vorwissen und Bedürfnissen an-passen können. Das war allerdings nicht immer so.Zu Beginn der Computertechnik war die Interakti-vität sehr beschränkt, Computer hatten weder Bild-schirm noch Tastatur: Eingabedaten wurden mitLochkarten in Stapelverarbeitung (engl. „batch pro-

cessing“) an den Rechner übergeben, die sequentiellabgearbeitet wurden und als Ergebnis Ausgabedatenauf Lochkarten erzeugten.

Character  Based  User  Interfaces

Die Verwendung von Bildschirm (vom Fernseher)und Tastatur (von der Schreibmaschine) als Com-puter-Interfacegeräte waren ein wichtiger Schritt:Zeichen sind nun von dem was sie darstellen unab-hängig und können daher auf unterschiedlichsteWeise realisiert werden. Anstatt einen Stapel von Auf-trägen auf Lochkarten vorgefertigt zu liefern, undauf das Ergebnis zu warten, wird die Aufgabe nunSchritt für Schritt im Dialog erledigt. Somit wirdnicht nur die Durchführung der eigentlichenAufgabe, sondern die Entwicklung der Aufgaben-stellung im Dialog mit den Computer unterstützt.Das ist eine ganz wesentliche Voraussetzung fürLernprogramme. Allerdings, anfangs noch als Dialog-systeme mit Kommandozeileninterpreter (Commandline Interpreter, Shell). Dies waren die ersten User In-terfaces, die bereits Text in der Kommandozeile ein-lesen, diesen Text als Kommando interpretieren undausführen konnten. So können Programme gestartet,Parameter und Dateien übergeben werden. Die Reali-sierung als eigenständiges Programm führte schnellzu Verbesserungen zum Beispiel durch Fehlerbe-handlungsroutinen und Kommandounterstützung.Waren Computerbenutzerinnen und Computerbe-nutzer anfangs noch ausgewiesene Expertinnen undExperten, wird nun – gerade auf Grund der immerbreiteren Gruppe von Endbenutzerinnen und End-benutzern – die Benutzeroberfläche selbst zum Ge-genstand von Forschung und Entwicklung. Damitwar die Basis geschaffen, HCI an unterschiedlichsteDialogprinzipien anpassen zu können.

Abbildung  1:  HCI  erforscht  die  Aspekte  an  derNahtstelle  zwischen  Perzeption,  Kognition  und  Infor-­‐mation  (vgl.  Holzinger,  2000a)

Page 3: Human–Computer Interaction - Usability Engineering im Bildungskontext

Human–Computer  Interac?on.  Usability  Engineering  zur  Gestaltung  im  Bildungskontext  —  3

Graphical  User  Interfaces  (GUI)Die immer breitere Anwendung von Computern inder Öffentlichkeit verlangte, dass die zeichenbasierteUnabhängigkeit der Dialogsysteme noch weiter ab-strahiert wird, weil auch andere als alpha-numerischeZeichen für die Darstellung und den Dialog ver-wendet werden können: Grafische Elemente, dieanalog zum alltäglichen Arbeiten, durch zeigen,nehmen, verschieben oder ablegen manipuliertwerden können, so genannte WIMP (kurz fürWindows, Icons, Menus, Pointers). Diese WIMP-In-teraktion, die sich als „Desktop-Metapher“ an unter-schiedliche Arbeitsumgebungen anpassen kann undüber „Point & Click“ und „Drag & Drop“ benutzbarist, eröffnete dem technologiegestützten Lerneneinen ungeheuren Schub. Kommt doch diese „direkteManipulation“ virtueller Objekte den kognitivenKonzepten der Benutzerinnen und Benutzer sehrentgegen. GUI und Desktop sind Kernparadigmender HCI, die zwar kontinuierlich erweitert und ver-bessert werden (zum Beispiel Toolbars, Dialogboxen,adaptive Menüs), aber vom Prinzip her konstantbleiben. Eine Konstanz, die ein wichtiges Prinzip un-terstützt: Reduktion kognitiver Überlastung. BestehenGUI zwar aus grafischen Elementen, so bleiben imHintergrund abstrakte, zeichenbasierte Beschrei-bungen von Prozessen, die grundsätzlich unabhängigvon der Art der Darstellung sind und daher auchüber unterschiedlichste Interfaceprinzipien realisiertwerden können.

Erweiterte  WIMP   Interfaces:  SILK   (Speech,   Image,  Lan-­‐guage,  Knowledge)

Der Desktop als Metapher ist nicht für alle Anwen-dungsbereiche ideal. Durch die Einbindung von Mul-timedia (zum Beispiel Sprache, Video, Gesten) in dasGUI und der Integration mobiler und zunehmendpervasiver und ubiquitärer Technologien, also Com-puter, die in Alltagsgegenständen eingebettet sindund als solche gar nicht mehr erkennbar sind, werdenAlternativen zu WIMP nicht nur möglich sondernauch notwendig. Hier können quasi-intelligente, se-mantische Funktionen integriert werden, wodurch einweiterer wichtiger Schritt erfolgte: Wenn Interfacesunterschiedlichste Metaphern unterstützen müssenund die Metapher an unterschiedliche Benutzerinnenund Benutzer, Medien, Endgeräte und Situationenangepasst werden muss, bedarf es einer Standardi-sierung der Interfacemechanismen und einer entspre-chenden Beschreibung (zum Beispiel durch XUL –XML User Interface Language), die über unterschied-liche Werkzeuge realisiert werden können.

Non-­‐Classical  InterfacesDesktop und WIMP Interfaces beruhen auf derNutzung der klassischen Interface-Geräte (zum Bei-spiel Bildschirm, Tastatur und Maus), die Schritt fürSchritt bei Beibehaltung ihrer Grundstruktur er-weitert, zum Beispiel für SILK oder für andere Meta-phern, und adaptiert werden. Die Leistungsfähigkeitder Computer und die zunehmende Unabhängigkeitder Interfaces integrieren damit Schritt für Schrittauch andere Ein- und Ausgabegeräte und Interakti-onsmechanismen wie zum Beispiel Sprache undGesten. Unsere klassischen Sinne Sehen und Hörenkönnen damit durch weitere „körperbewusste“ (engl.„proprioceptive“) Modalitäten wie Berühren/Tasten,Schmecken, Riechen, aber auch Temperatur, Gleich-gewicht, Schmerz oder Aufmerksamkeit ergänztwerden. Solche „Non-Classical Interfaces“ habensich daher zu einem wichtigen Forschungsbereichentwickelt. Damit wird der Mensch als Ganzes in dieInteraktion miteinbezogen, was zu neuen Möglich-keiten des Lehrens und Lernens führt (ein aktuellesBeispiel ist die Nintendo Wii mit der Wiimote; Hol-zinger et al., 2010).

Intelligente  Adap2ve  seman2sche  Interfaces

Da heutige Computersysteme zunehmend alle Le-bensbereiche durchdringen und sich die Interaktivitätzunehmend vom klassischen Schreibtisch wegbewegt,verbreiten sich neue ubiquitäre, pervasive Möglich-keiten für das Lehren und Lernen (Safran et al.,2009). In Zukunft werden Benutzeroberflächen mitintelligenten, semantischen Mechanismen ausgestattetwerden, die den Benutzerinnen und Benutzern beider Erledigung der immer größeren Vielfalt undKomplexität von Aufgaben des täglichen Lernensund wissensintensiven Arbeitens unterstützen (zumBeispiel Suchen, Ablegen, Wiederfinden oder Ver-gleichen). Diese Systeme passen sich dynamisch andie Umgebung, Geräte und vor allem ihre Benutze-rinnen und Benutzer und deren Präferenzen an (Hol-zinger & Nischelwitzer, 2005). Entsprechende Infor-mationen werden für die Gestaltung der Interaktionin Profilen gesammelt und ausgewertet (User pro-

GUI   und   Desktop   sind   Kernparadigmen   der   HCI,   diezwar   kon?nuierlich   erweitert   und   verbessert  werden(zum  Beispiel  Toolbars,  Dialogboxen,  adap?ve  Menüs),aber  vom  Prinzip  her  konstant  bleiben.

!

Moderne  Interfaces  erlauben  nicht  nur  die  Interak?ondes  Menschen  mit  dem  Computer  mit  herkömmlichenEingabegeräten,   sondern   versuchen   hap?sche   Mög-­‐lichkeiten  zu  berücksich?gen.  

!

Page 4: Human–Computer Interaction - Usability Engineering im Bildungskontext

4  —  Lehrbuch  für  Lernen  und  Lehren  mit  Technologien  (L3T)

filing). Ebenso erlaubt die steigende technische Per-formanz die Multimedialität und Multimodalität vor-anzutreiben, wodurch man sich von der Desktop Me-tapher immer weiter entfernen kann. Damit könnenadaptive Systeme realisiert werden, bei denen dieSysteme selbst mit der Umgebung intelligent intera-gieren und semantische Information verarbeiten undso die User Interfaces der jeweiligen Situation, denBedürfnissen, dem Kontext und den vorhandenenEndgeräten anpassen (Holzinger et al., 2006).

Web  2.0  als  Ausgangspunkt  der  veränderten  HCI

Mit dem Aufkommen des Web 2.0 (O’Reilly, 2005,2006) veränderte sich die Interaktion – weg vom klas-sischen „Personal Computing“. Die Benutzerinnenund Benutzer sind nicht mehr passive Informations-konsumenten, sondern erstellen aktiv Inhalte, bear-beiten und verteilen und vernetzen sich darüberhinaus mit anderen („Social Computing“). Obwohlder Begriff Web 2.0 keine rein technische Ent-wicklung bezeichnet, werden einige Ansätze aus derInformatik unmittelbar damit verbunden, wie zumBeispiel RSS-Feeds (Really Simple Syndication) zumschnellen Informationsaustausch für die einfache undstrukturierte Veröffentlichung von Änderungen aufWebsites (zum Beispiel Blogs) in einem standardi-sierten Format (XML). Oder beispielsweise AJAX(Asynchronous JavaScript and XML) als mächtigesKonzept der asynchronen Datenübertragung zwi-schen einem Browser und einem Server. Damit hatman die Möglichkeit in einem Browser ein desktop-

ähnliches Verhalten zu simulieren. Damit ergebensich vielfältige Möglichkeiten für E-Learning-Anwen-dungen. Ein Beispiel: Studierende lernen meistenserst kurz vor der Prüfung, dann aber meistens mas-siert, das heißt kurz aber nahezu Tag und Nacht. Ausder klassischen Lernforschung ist aber bekannt, dassüber das Semester verteiltes Lernen wesentlich wir-kungsvoller ist. In einer Studie konnte gezeigtwerden, dass durch entsprechenden und gezieltenEinsatz eines Blogs dieses verteilte Lernen "er-zwungen" werden kann, was nicht nur zu einer bes-seren Prüfungsleistung führte, sondern auch nachhal-tiges Lernen förderte (Holzinger, Kickmeier &Ebner, 2009). Wir wollen uns nun aber in aller Kürzeeiniger Grundregeln für benutzergerechte HCI zu-wenden.

3. Grundregeln  für  benutzergerechte  HCI

Wenn wir uns mit der Interaktion, Perzeption undKognition von Information durch den Menschen be-schäftigen, müssen wir einige wesentliche Unter-schiede zwischen Mensch und Computer kennen.Während Menschen die Fähigkeit zum induktiven,flexiblen Denken und komplexen Problemlösen aus-zeichnet, zeigen Computer bei deduktiven Opera-

tionen und logischen Aufgaben ermüdungsfreie Per-formanz (siehe Tabelle 1).

HCI  und  Usability

Zur Interaktion zwischen Mensch und Computer gibtes einige Elemente, die im Folgenden kurz vorgestelltwerden. Wichtig ist zu berücksichtigen, dass funk-tionale als auch ästhetische Elemente zusammen-wirken sollten. Brauchbarkeit (usefulness), Benutz-barkeit (usability) und Ästhetik (enjoyability) solltenausgewogen zusammenwirken.

Usability  –  was  ist  das  eigentlich?

Effektivität wird darin gemessen, ob und in welchemAusmaß die Endbenutzer ihre Ziele erreichenkönnen. Effizienz misst den Aufwand, der zur Errei-chung dieses Ziels nötig ist. Zufriedenheit schließlichist gerade im E-Learning wichtig, denn es enthältsubjektive Faktoren wie „joy of use“, „look and feel“und „motivation and fun“ „(enjoyability“). Usability

Mensch Computer

Empfindlichkeit  für  Reize(visuelle,  auditorische,tak?le,  olfaktorische)

Präzises  Zählen  und  Mes-­‐sen  physikalischer  Größen

Fähigkeit  zum  induk?venDenken  und  komplexenProblemlösen

Deduk?ve  Opera?onen,formale  Logik,  Anwendenvon  Regeln

Bildung  von  vernetztemWissen  und  Behalten  übergroße  Zeiträume

Speichern  großer  Daten-­‐mengen,  die  nicht  aufein-­‐ander  bezogen  sind

Flexibilität  bei  Entschei-­‐dungen,  auch  in  neuar?-­‐gen  Situa?onen

Zuverlässige  Reak?on  aufeindeu?g  definierte  Ein-­‐gangssignale

Entdecken  unscharfer  Si-­‐gnale,  auch  vor  einemRauschhintergrund

Zuverlässige  und  ermü-­‐dungsfreie  Performanzüber  langen  Zeitraum

Tabelle  1:  Grober  Vergleich  Mensch-­‐Computer(vgl.  Holzinger,  2000b)

Usability  ist  nicht  nur  die  –  wie  das  Wort  ins  Deutscheübersetzt   wird   –   schlichte   „Gebrauchstauglichkeit“.Usability   setzt   sich   nämlich   aus   Effek?vität,   Effizienzund   der   Zufriedenheit   der   Endbenutzerinnen   undEndbenutzer  zusammen.

!

Page 5: Human–Computer Interaction - Usability Engineering im Bildungskontext

Human–Computer  Interac?on.  Usability  Engineering  zur  Gestaltung  im  Bildungskontext  —  5

wird demnach durch optimales Zusammenspiel vonEffektivität, Effizienz und Zufriedenheit für einenbestimmten Benutzerinnenkontext und Benutzer-kontext gemessen.

In den folgenden vier Aufzählungen soll exempla-risch klar werden, worauf es in der Usability an-kommt: ▸ Orientierung (zum Beispiel Übersichten, Gliede-

rungen, Aufzählungszeichen, Hervorhebungen,oder Farbbereiche) dienen dazu, sich zurechtzu-finden. Die Endbenutzer müssen stets zu jederZeit genau erkennen, wo sie sich befinden und wosie „hingehen“ können.

▸ Navigation (zum Beispiel Buttons oder Links)helfen den Endbenutzern sich zu bewegen und ge-zielt bestimmte Bereiche anzuspringen, zum Bei-spiel über eine Navigationsleiste. Die Navigationmuss logisch, übersichtlich, rasch und konsistent(immer gleichartig) erfolgen. Sprichwort: „Whatever you do, be consistent“ (das gilt auch fürFehler: solange dieser konsistent ist, fällt diesernicht so sehr auf).

▸ Inhalte (zum Beispiel Texte, Bilder, Töne, Anima-tionen oder Videos) sind die Informationen, dievermittelt werden sollen (Content). Hier gelten alleGrundregeln der menschlichen Informationsver-arbeitung. Alle Inhalts-Elemente müssen entspre-chend aufbereitet werden. Text muss kurz undprägnant sein. Anweisungen müssen eindeutig undunmissverständlich sein.

▸ Interaktions-Elemente (zum Beispiel Auswahl-menüs, Slider oder Buttons) ermöglichen gewisseAktionen zu erledigen. Sämtliche Interaktionenmüssen den (intuitiven) Erwartungen der Endbe-nutzer entsprechen.

Usability-­‐Engineering-­‐Methoden  sichern  den  ErfolgEine breite Palette an Usability-Engineering-Me-thoden (UEM) sichern erfolgreiche Entwicklungs-prozesse (siehe Holzinger, 2005). Ein Beispiel dafürist: Der Ansatz „User-Centered Design“ (UCD) ori-

entiert sich an Bedürfnissen, Fähigkeiten, Aufgaben,Kontext und Umfeld der Endbenutzer, die vonAnfang an in den Entwicklungsprozess mit einbe-zogen werden. Daraus entwickelte sich das „Learner-Centered Design“ (LCD), das sich auf den Grund-

lagen des Konstruktivismus (Lernen als konstruktiveInformationsverarbeitung) und des problembasiertenLernen stützt. Ähnlich wie beim UCD fokussiert sichdas LCD auf das Verstehen der Lernenden imKontext.

Ähnlich wie im User-Centered Design wird beidieser Methode ein spiralförmiger (iterativer) Ent-wicklungsprozess durchlaufen, der aus drei Phasenbesteht. In jeder Phase kommen spezielle Usability-Methoden zum Einsatz, die Einblick in die Bedürf-nisse, das Verhalten und den Kontext der Endbe-nutzer erlauben (zum Beispiel: Wer? Was? Wann?Wozu? Wie? Womit? Warum?). So kann eine genaueKenntnis der Lernenden gewonnen werden: Ziele,Motivation, Zeit, Kultur, Sprache, VoraussetzungenVorwissen und weiteres.

Es wird jeweils zum nächsten Schritt übergangen,wenn kein nennenswerter Erkenntnisgewinn mehrerzielt wird. Wichtig ist die interdisziplinäre Zusam-menarbeit verschiedener Personen, wie zum BeispielFachexpertin/innen, Didaktiker/innen, MultimediaExpertin/innen und Usability-Ingenieure – und denLernenden! Selten fallen alle Rollen in einer Personzusammen. Während der Analysen wird klar, welchesdidaktische Modell für den jeweiligen Kontext ambesten geeignet ist und welche pädagogischen Kon-zepte angewandt werden können, die die Lernenden

im Zielkontext mit der jeweiligen Zieltechnologie(zum Beispiel Mobiltelefon, iPod oder iTV) best-möglich unterstützen. Mit Hilfe eines ersten Proto-typen kann Einsicht in viele Probleme gewonnenwerden. Sehr bewährt hat sich so genanntes „RapidPrototyping“, das auf papierbasierten Modellenberuht und enorme Vorteile bringt. Dabei kann dasVerhalten der Endbenutzerinnen und Endbenutzerzum Beispiel mit der Lautdenken-Methode (engl.„thinking aloud“) untersucht werden.

Erst wenn auf Papierebene alles „funktioniert“wird ein computerbasierter Prototyp erstellt, derdann wiederholt getestet wird. Erst wenn auch hierkein weiterer Erkenntnisgewinn erfolgt, kann dieFreigabe für die Umsetzung der endgültigen Versiongegeben werden. Papier in der Anfangsphase, dasklingt seltsam ist aber extrem praktisch, weil wesent-

Das   Tool   (E-­‐Learning   Umgebung)   und   der   Content(Lerninhalt)   müssen   einen   maximalen   Nutzen   (Ler-­‐nerfolg)  bringen.  

!

„Thinking   aloud“   beschreibt   eine   Methode   bei   demzumeist   4-­‐5   Testpersonen   gebeten   werden,   ein   Pro-­‐gramm   oder   einen   Programmablauf   zu   testen   unddabei   gebeten   werden   ihre   Gedanken   laut   auszu-­‐sprechen.

!

Page 6: Human–Computer Interaction - Usability Engineering im Bildungskontext

6  —  Lehrbuch  für  Lernen  und  Lehren  mit  Technologien  (L3T)

liche Interaktionselemente schnell erstellt und simu-liert werden können, ohne dass bereits Programmier-arbeit geleistet wird.

Lerninhalt  –  Metadaten  –  Didak2k  

Damit E-Learning-Content einem lerntheoretisch ad-äquaten Ansatz entspricht, muss dieser nicht nur ent-sprechend aufbereitete Lerninhalte und Metainfor-mation (Metadaten, das sind Informationen die zumBeispiel das Wiederfinden ermöglichen) enthalten,sondern auch noch einige weitere technische Voraus-setzungen erfüllen. Ähnlich wie in der objektorien-tierten Programmierung (OOP), entstand die Grun-didee von Lernobjekten, das heißt komplexe Lernin-halte (engl. „content“) auf Objektebene zu erstellen.Wichtige technische Eigenschaften solcher Objekte(die man sich zumindest wünscht) sind Austauschfä-higkeit (engl. „interoperability“) und Wiederverwert-barkeit (engl. „reusability“). Dazu muss es aber nichtnur Lerninhalte und Metadaten enthalten, sondernauch Vorwissensfragen (engl. „prior knowledge ques-tions“) und Selbstevaluierungsfragen (engl. „self-eva-luation questions“). Vorwissensfragen haben im Ler-nobjekt die Funktion von Advance Organizers(Ausubel, 1960). Dabei handelt es sich um einen in-struktionspsychologischen Ansatz in Form einer„Vorstrukturierung“, die dem eigentlichen Lernma-terial vorangestellt werden. Allerdings driften hier dieForschungsbefunde auseinander: die ältere Forschungbetont, dass ein Advance Organizer nur dann wirk-sam wird, wenn dieser tatsächlich auf einem höherenAbstraktionsniveau als der Text selbst liegt, das heißtlediglich eine inhaltliche Zusammenfassung des nach-folgenden Textes ist noch keine Vorstrukturierung.Solche Vorstrukturierungen, die analog zu den Struk-turen des Textes aufgebaut sind, bringen bessere Er-gebnisse bei der inhaltlichen Zusammenfassung alssolche, die zwar inhaltlich identisch, aber nicht indiesem Sinn analog aufgebaut sind. Andererseits hebtdie jüngere Forschung hervor, dass sich konkrete, dasheißt weniger abstrakt formulierte Vorstrukturierungauf das Behalten längerer Texte positiv auswirkt. Sieaktivieren demnach das vorhandene Vorwissen undverbinden sich damit zu einer „reichhaltigen Vor-stellung“ – einem mentalen Modell (dazu Ausubel,1968; Kralm & Blanchaer, 1986; Shapiro, 1999). DasKonzept der Advance Organizer ist verwandt mitdem Schema-Modell kognitiver Informationsverar-beitung (Bartlett, 1932). Schemata spielen einewichtige Rolle bei der sozialen Wahrnehmung, beimTextverstehen, beim begrifflichen und schlussfol-gernden Denken und beim Problemlösen.

Ähnlich wie Schemata funktioniert die Theorie derFrames und Slots nach Anderson (Anderson et al.,1996). Die Wissensrepräsentation mit Hilfe vonFrames stellt eine objektorientierte Wissensrepräsen-tation dar und zeigt Ähnlichkeiten zwischen mensch-lichem Gedächtnis und wissensbasierenden Informa-tionssystemen. Objekte der realen Welt werden dabeidurch so genannte Frames dargestellt. Die Eigen-schaften der Objekte werden in den Frames in so ge-nannten Slots (Leerstellen) gespeichert. Der Tatsache,dass es in der realen Welt mehrere unterschiedlicheObjekte eines Objekttyps gibt, wird mit Hilfe von ge-nerischen Frames und deren Instanzen Rechnung ge-tragen. Ein generischer Frame hält für jedes Attribut,mit dem ein Objekt beschrieben wird, einen Slotbereit. In einer Instanz des generischen Frames wirdnun jedem Slot – entsprechend für das Attribut für

das er steht – ein Wert zugeordnet. Die Beziehungzwischen einem generischen Frame und einer Instanzwird mit Hilfe des „is-a“-Slot hergestellt. Im Beispielist im ,,is-a“-Slot gespeichert, dass es sich bei Ka-tharina um ein Kind handelt. In den übrigen Slotssind jeweils Werte zu den Attributen gespeichert.Diese Theorien besagen, dass Lernende besserlernen, wenn die Information assoziativ organisiertist, denn: die Lernenden bauen neue Informationstets auf alten Informationen (Vorwissen) auf. Be-

reits (Piaget, 1961) bezeichnete Schemata als grundle-gende Bausteine zum Aufbau von Wissen.

Was  bringt  Usability?

Ein Usability-orientierter Prozess schafft Erfolgssi-cherheit, deckt Risiken frühzeitig auf und sichert eineendbenutzerzentrierte Entwicklung.

„Bedienerfreundlichkeit“   wird   im   englischen   Sprach-­‐raum  nicht  mit  Usability  bezeichnet.  Der  Begriff  Usa-­‐bility  setzt  sich  aus  zwei  Worten  zusammen:  use  (be-­‐nutzen)  und  ability  (Fähigkeit),  wird  im  deutschen  mit„Gebrauchstauglichkeit“   übersetzt   und   umfasst   weitmehr  als  nur  Bedienerfreundlichkeit:  In  der  ISO  Norm9241  wird  Usability  als  das  Ausmaß  definiert,   in  demein   Produkt   durch   bes?mmte   Benutzer/innen   ineinem   bes?mmten   Nutzungskontext   (!)   genutztwerden  kann,  um  deren  Ziele  effek?v  und  effizient  zuerreichen.  

!

Erfolgsregel:  Alles  was  bereits  in  der  Anfangsphase  er-­‐kannt  wird   spart   Zeit   und   Kosten!   Der   Return   on   In-­‐vestment  (ROI)  liegt  dabei  zwischen  1:10  bis  1:100.

!

Page 7: Human–Computer Interaction - Usability Engineering im Bildungskontext

Human–Computer  Interac?on.  Usability  Engineering  zur  Gestaltung  im  Bildungskontext  —  7

Usability-Engineering-Methoden machen nichtnur Probleme sichtbar, sondern generieren in derEntwicklungsphase neue Ideen und Möglichkeiten –denn Usability Engineering stellt den Menschen inden Fokus der Entwicklung!

4. Ausblick

So spannend auch immer Forschung und Ent-wicklung neuer Technologien zur Unterstützungmenschlichen Lernens ist, es muss uns stets klar sein:Lernen ist ein kognitiver Grundprozess, den jedes In-dividuum selbst durchlaufen muss – Technologiekann menschliches Lernen lediglich unterstützen –nicht ersetzen. Unsere großen Chancen beim Einsatzneuer Technologien liegen zusammengefasst in dreigroßen Bereichen (Holzinger, 1997; Holzinger &Maurer, 1999; Holzinger, 2000a): ▸ Sichtbarmachung von Vorgängen, die wir mit klas-

sischen Medien (zum Beispiel der Schultafel) nichtdarstellen können (wie zum Beispiel interaktive Si-mulationen, Animationen, Visualisierungen);

▸ intelligenter Zugriff auf Information an jedemOrt zu jeder Zeit (zum Beispiel M-Learning) undschließlich

▸ motivationale Effekte (das heißt Motivation,

Steuerung der Aufmerksamkeit und „Arousal“(Anregung) durch entsprechenden Medieneinsatz).

Technologiegestütztes Lehren und Lernen er-fordert es, den gesamten Bildungsprozess inklusivedie durch die neuen Medien entstehende Lehr-Lern-Kultur zu betrachten. Fragen der Effektivität (Aus-maß der Zielerreichung) und der Effizienz (Kosten-Nutzen Relation) sind notwendig. HCI-Forschungversucht einen kleinen Beitrag dazu zu leisten undUE versucht die Erkenntnisse auf systemischerEbene einfließen zu lassen.

Literatur

▸ Anderson, J. R.; Reder, L. M. & Lebiere, C. (1996). WorkingMemory: Activation Limitations on Retrieval. In: CognitivePsychology, 30, 3, 221-256.

▸ Ausubel, D. P. (1960). The use of advance organizers in thelearning and retention of meaningful verbal material. In:Journal of Educational Psychology, 51, 267-272.

▸ Bartlett, F. C. (1932). Remembering. London: Cambridge Uni-versity Press.

In der Praxis: Evaluation von Systemem und SoftwareFür  die  Praxis  ist  die  Evalua?on,  also  die  Beurteilung  von  Sys-­‐temen  und  Solware  wich?g.  Eine  Evalua?on  sollte  stets  sys-­‐tema?sch,   methodisch   und   prozessorien?ert   durchgeführtwerden.  Es   wird   unterschieden   zwischen   forma2ver   Evalua?on(während   der   Entwicklung)   und   summa2ver   Evalua?on(nach   Fer?gstellung).   Subjek2ve   Evalua?on   schließt   diemündliche   und   die   schrilliche   Befragung   und   das   lauteDenken   ein.   Objek2ve   Evalua?on   bedient   sich   der   anwe-­‐senden  und  abwesenden  Beobachtung.  Bei   lei[adenorien2erten   Evalua?onsmimeln   wird   das   Prod-­‐ukt  entlang  eines  Prüfleioadens  beurteilt,  der   sich  aus   typi-­‐schen   Aufgaben   des   Systems   ergibt.   Bei   der   Erfassung   derMesswerte  können  verschiedene  Skalen  (zum  Beispiel  Nomi-­‐

nalskala,  Rangskala,  Verhältnisskala)   verwendet  werden,  dieunter  bes?mmten  Voraussetzungen  durch  eine  Skalentrans-­‐forma?on   ineinander   übergeführt   werden   können.   Mes-­‐sungen   sollen   sich   stets   durch   hohe   Reliabil ität(Zuverlässigkeit),  Validität  (Gül?gkeit)  und  Objek?vität  (Sach-­‐lichkeit)   auszeichnen.   Als   Beurteilungsverfahren   (Zuweisungvon   Werten)   werden   Grading   (Einstufung),   Ranking(Reihung),   Scoring   (Punktevergabe)   und   Appor?oning   (Auf-­‐teilung,  Zuteilung)  verwendet.  Eine  quan?ta?ve  Beurteilung(Vorteil:   leichte   Vergleichbarkeit   von   Systemen)   kann   durchSchulnoten   erfolgen,   aber   ol   wird   es   auch   umgekehrt   ge-­‐macht:  Mehr   ist   besser.  Mul?media-­‐Systeme   können   syste-­‐ma?sch  mit  Checklisten  beurteilt  werden.  

Überlegen  Sie  wie  man  mit  zukünligen  Computersys-­‐temen   in  Dialog   treten   könnte?  Denken   Sie  dabei   anschon   vorhandene   Interfaces,   zum   Beispiel   WiiRemote   Controller,   was   ist   dort   besonders   gut   ge-­‐lungen?  Was  wird  unterstützt?  Was  könnte  damit  allesgemacht  werden?  

?

Gehen   Sie   systema?sch   Ihre   persönliche   Arbeitsum-­‐gebung  durch  (also  jene  Dinge  die  Sie  selbst  als  Lern-­‐unterstützung   verwenden)   und   bewerten   Sie   diesemit  der  Schulnotenskala  (1  „sehr  gut“  bis  5  „nicht  ge-­‐nügend)“   anhand   der   folgenden   ausgewählten   Kri-­‐terien  ▸ Technische  Performanz  -­‐  funk?oniert  alles  schnell,zügig  und  ohne  viel  zu  klicken?  ▸ Klarheit  -­‐  sind  alle  Funk?onen  sofort,  einfach  undunmissverständlich  erkennbar?▸ Konsistenz   -­‐   ist   alles   durchgängig,   einheitlich  undan  der  erwarteten  Stelle?▸ Amrak?vität  -­‐  ist  das  „look  and  feel“  ansprechend,fühlen  Sie  sich  wohl?▸ Fehlertoleranz  -­‐  werden  Eingabefehler  tolerant  be-­‐handelt,  ist  stets  ein  Zurück  möglich?  

?

Page 8: Human–Computer Interaction - Usability Engineering im Bildungskontext

8  —  Lehrbuch  für  Lernen  und  Lehren  mit  Technologien  (L3T)

▸ Card, S. K.; Moran, T. P. & Newell, A. (1983). The psychologyof Human-Computer Interaction. Hillsdale: LawrenceErlbaum Ass..

▸ Cuhls, K.; Ganz, W. & Warnke, P. (2009). Foresight Prozess. ImAuftrag des BMBF. Zukunftsfelder neuen Zuschnitts. URL:http://www.bmbf.de/pub/Foresight-Prozess_BMBF_Zu-kunftsfelder_neuen_Zuschnitts.pdf [2010-08-08].

▸ Holzinger, A. & Maurer, H. (1999). Incidental learning, moti-vation and the Tamagotchi Effect: VR-Friends, chances fornew ways of learning with computers. Paper presented at theComputer Assisted Learning, CAL 99, London.

▸ Holzinger, A. & Nischelwitzer, A. (2005). Chameleon LearningObjects: Quasi-Intelligente doppelt adaptierende Lernobjekte:Vom Technologiemodell zum Lernmodell. In: OCG Journal,30(4), 4-6.

▸ Holzinger, A. (1997). A study about Motivation in ComputerAided Mathematics Instruction with Mathematica 3.0. In: Ma-thematica in Education and Research, 6(4), 37-40.

▸ Holzinger, A. (2000a). Basiswissen Multimedia Band 2: Lernen.Kognitive Grundlagen multimedialer Informationssysteme.Das Basiswissen für die Informationsgesellschaft des 21. Jahr-hunderts. Würzburg: Vogel, URL: http://www.basiswissen-multimedia.at [2010-10-18].

▸ Holzinger, A. (2000b). Basiswissen Multimedia Band 3: Design.Entwicklungstechnische Grundlagen multimedialer Informa-tions Systeme. Würzburg: Vogel, URL: http://www.basis-wissen-multimedia.at [2010-10-18].

▸ Holzinger, A.; Nischelwitzer, A. & Kickmeier-Rust, M. D.(2006). Pervasive E-Education supports Life Long Learning:Some Examples of X-Media Learning Objects. Paper pre-sented at the World Conference on Continuing EngineeringEducation. Wien, URL:http://www.wccee2006.org/papers/445.pdf [2010-10-18].

▸ Holzinger, A., Kickmeier-Rust, M.D. & Ebner, M. (2009). In-teractive Technology for Enhancing Distributed Learning: AStudy on Weblogs. In: Proceedings of HCI 2009 The 23ndBritish HCI Group Annual Conference, 309–312. CambridgeUniversity, UK, British Computer Society

▸ Holzinger, A.; Softic, S.; Stickel, C.; Ebner, M.; Debevc, M. &Hu, B. (2010). Nintendo Wii Remote Controller in Higher

Education: Development and Evaluation of a DemonstratorKit for e-Teaching. In: Computing & Informatics, 29(3), 601-615.

▸ Kralm, C. & Blanchaer, M. (1986). Using an advance organizerto improve knowledge application by medical students in com-puter-based clinical simulations. In: Journal of ComputerBased Instruction, 13, 71-74.

▸ Niegemann, H. M.; Domagk, S.; Hessel, S.; Hein, A.; Hupfer,M. & Zobel, A. (2008). Kompendium multimediales Lernen,Reihe: X.media.press. Berlin/Heidelberg: Springer.

▸ Norman, D. A. (1986). Cognitive engineering. In: D. Norman& S. Draper (Hrsg.), User Centered System Design: New Per-spectives on Human-Computer interaction). Hillsdale: La-wrence Erlbaum Ass..

▸ O’Reilly, T. (2005). What is Web 2.0 – Design Patterns andBusiness Models for the Next Generation of Software. URL:http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html [2010-08-08].

▸ O’Reilly, T. (2006). Web 2.0: Stuck on a name or hooked onvalue? In: Dr Dobbs Journal, 31(7), 10-10.

▸ Piaget, J. (1961). On the development of memory and identity.Worchester (MA): Clark University Press.

▸ Safran, C.; Ebner, M.; Kappe, F. & Holzinger, A. (2009). m-Learning in the Field: A Mobile Geospatial Wiki as an examplefor Geo-Tagging in Civil Engineering Education. In: M. Ebner& M. Schiefner (Hrsg.), Looking Toward the Future of Tech-nology-Enhanced Education: Ubiquitous Learning and the Di-gital Native., Hershey, PA: IGI Global, 444-454.

▸ Schulmeister, R. (2002). Taxonomie der Interaktivität von Mul-timedia - Ein Beitrag zur aktuellen Metadaten-Diskussion. In: it+ ti - Informationstechnik und Technische Informatik, 44(4),193-199.

▸ Shapiro, A. M. (1999). The relationship between prior know-ledge and interactive overviews during hypermedia-aidedlearning. In: Journal of Educational Computing Research, 20,2, 143-167.

▸ Shneiderman, B. (1983). Direct manipulation: A step beyondprogramming languages. In: IEEE Computer, 16(8), 57-69.