human–computer interaction - usability engineering im bildungskontext
Post on 18-Dec-2014
1.133 Views
Preview:
DESCRIPTION
TRANSCRIPT
2 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)
1. Einführung
Human-Computer Interaction (HCI) ist ein erst seitrund 30 Jahren etabliertes Teilgebiet der Informatik,das mit der Verbreitung so genannter grafischer Be-nutzeroberflächen (Shneiderman, 1983) entstand undseit Beginn versucht, die Brücke zwischen Informatikund Psychologie zu verbreitern.
Während die klassische HCI-Forschung (Card etal., 1983; Norman, 1986) sich auf das Zusammen-spiel zwischen Mensch-Aufgabe-Computer konzen-trierte, widmet sich die neuere HCI-Forschung,neben der Erforschung neuer Interaktionspara-digmen, zum Beispiel intelligente, adaptive, personali-sierte Benutzeroberflächen, Augmented Non-Clas-sical Interfaces, aber auch Social Computing, vorallem der Erhöhung der Effektivität und Effizienzdes Zusammenwirkens menschlicher und technischerPerformanz. Und genau damit wird HCI-Wissengrundlegend zur Optimierung technologiegestütztenLehrens und Lernens (Niegemann et al., 2008), ins-besondere im Bereich der Interaktion zwischen zu-künftigen semantischen Technologien und mensch-lichen Wissensräumen (Cuhls, Ganz & Warnke,2009).
2. Interak2on und Interak2vität
Interaktion ist eigentlich ein psychologischer Begriffund bezeichnet einen auf der Basis gewisser Erwar-tungen, Einstellungen und Bewertungen beruhendenAustausch (von Information) auf sprachlicher odernichtsprachlicher (symbolischer) Ebene. Interaktionist also eng mit dem Begriff Kommunikation ver-bunden. Darum wird im Deutschen HCI auch oft alsMensch-Computer Kommunikation bezeichnet.Interaktivität hingegen ist ein technischer Begriff derMöglichkeiten und Eigenschaften des Computers be-zeichnet, den Benutzern verschiedene Eingriffs-, Ma-nipulations- und Steuerungsmöglichkeiten zu ermög-lichen (Abbildung 1).
Interaktivität wird zu einem didaktisch wichtigenTeil des technologiegestützten Lernens gezählt(Schulmeister, 2002), insbesondere weil Interaktivitätdie Möglichkeit bietet, dass die Endbenutzerinnenund Endbenutzer die Auswahl, die Art und die Prä-sentation von Informationen manipulieren und damitihrem individuellen Vorwissen und Bedürfnissen an-passen können. Das war allerdings nicht immer so.Zu Beginn der Computertechnik war die Interakti-vität sehr beschränkt, Computer hatten weder Bild-schirm noch Tastatur: Eingabedaten wurden mitLochkarten in Stapelverarbeitung (engl. „batch pro-
cessing“) an den Rechner übergeben, die sequentiellabgearbeitet wurden und als Ergebnis Ausgabedatenauf Lochkarten erzeugten.
Character Based User Interfaces
Die Verwendung von Bildschirm (vom Fernseher)und Tastatur (von der Schreibmaschine) als Com-puter-Interfacegeräte waren ein wichtiger Schritt:Zeichen sind nun von dem was sie darstellen unab-hängig und können daher auf unterschiedlichsteWeise realisiert werden. Anstatt einen Stapel von Auf-trägen auf Lochkarten vorgefertigt zu liefern, undauf das Ergebnis zu warten, wird die Aufgabe nunSchritt für Schritt im Dialog erledigt. Somit wirdnicht nur die Durchführung der eigentlichenAufgabe, sondern die Entwicklung der Aufgaben-stellung im Dialog mit den Computer unterstützt.Das ist eine ganz wesentliche Voraussetzung fürLernprogramme. Allerdings, anfangs noch als Dialog-systeme mit Kommandozeileninterpreter (Commandline Interpreter, Shell). Dies waren die ersten User In-terfaces, die bereits Text in der Kommandozeile ein-lesen, diesen Text als Kommando interpretieren undausführen konnten. So können Programme gestartet,Parameter und Dateien übergeben werden. Die Reali-sierung als eigenständiges Programm führte schnellzu Verbesserungen zum Beispiel durch Fehlerbe-handlungsroutinen und Kommandounterstützung.Waren Computerbenutzerinnen und Computerbe-nutzer anfangs noch ausgewiesene Expertinnen undExperten, wird nun – gerade auf Grund der immerbreiteren Gruppe von Endbenutzerinnen und End-benutzern – die Benutzeroberfläche selbst zum Ge-genstand von Forschung und Entwicklung. Damitwar die Basis geschaffen, HCI an unterschiedlichsteDialogprinzipien anpassen zu können.
Abbildung 1: HCI erforscht die Aspekte an derNahtstelle zwischen Perzeption, Kognition und Infor-‐mation (vgl. Holzinger, 2000a)
Human–Computer Interac?on. Usability Engineering zur Gestaltung im Bildungskontext — 3
Graphical User Interfaces (GUI)Die immer breitere Anwendung von Computern inder Öffentlichkeit verlangte, dass die zeichenbasierteUnabhängigkeit der Dialogsysteme noch weiter ab-strahiert wird, weil auch andere als alpha-numerischeZeichen für die Darstellung und den Dialog ver-wendet werden können: Grafische Elemente, dieanalog zum alltäglichen Arbeiten, durch zeigen,nehmen, verschieben oder ablegen manipuliertwerden können, so genannte WIMP (kurz fürWindows, Icons, Menus, Pointers). Diese WIMP-In-teraktion, die sich als „Desktop-Metapher“ an unter-schiedliche Arbeitsumgebungen anpassen kann undüber „Point & Click“ und „Drag & Drop“ benutzbarist, eröffnete dem technologiegestützten Lerneneinen ungeheuren Schub. Kommt doch diese „direkteManipulation“ virtueller Objekte den kognitivenKonzepten der Benutzerinnen und Benutzer sehrentgegen. GUI und Desktop sind Kernparadigmender HCI, die zwar kontinuierlich erweitert und ver-bessert werden (zum Beispiel Toolbars, Dialogboxen,adaptive Menüs), aber vom Prinzip her konstantbleiben. Eine Konstanz, die ein wichtiges Prinzip un-terstützt: Reduktion kognitiver Überlastung. BestehenGUI zwar aus grafischen Elementen, so bleiben imHintergrund abstrakte, zeichenbasierte Beschrei-bungen von Prozessen, die grundsätzlich unabhängigvon der Art der Darstellung sind und daher auchüber unterschiedlichste Interfaceprinzipien realisiertwerden können.
Erweiterte WIMP Interfaces: SILK (Speech, Image, Lan-‐guage, Knowledge)
Der Desktop als Metapher ist nicht für alle Anwen-dungsbereiche ideal. Durch die Einbindung von Mul-timedia (zum Beispiel Sprache, Video, Gesten) in dasGUI und der Integration mobiler und zunehmendpervasiver und ubiquitärer Technologien, also Com-puter, die in Alltagsgegenständen eingebettet sindund als solche gar nicht mehr erkennbar sind, werdenAlternativen zu WIMP nicht nur möglich sondernauch notwendig. Hier können quasi-intelligente, se-mantische Funktionen integriert werden, wodurch einweiterer wichtiger Schritt erfolgte: Wenn Interfacesunterschiedlichste Metaphern unterstützen müssenund die Metapher an unterschiedliche Benutzerinnenund Benutzer, Medien, Endgeräte und Situationenangepasst werden muss, bedarf es einer Standardi-sierung der Interfacemechanismen und einer entspre-chenden Beschreibung (zum Beispiel durch XUL –XML User Interface Language), die über unterschied-liche Werkzeuge realisiert werden können.
Non-‐Classical InterfacesDesktop und WIMP Interfaces beruhen auf derNutzung der klassischen Interface-Geräte (zum Bei-spiel Bildschirm, Tastatur und Maus), die Schritt fürSchritt bei Beibehaltung ihrer Grundstruktur er-weitert, zum Beispiel für SILK oder für andere Meta-phern, und adaptiert werden. Die Leistungsfähigkeitder Computer und die zunehmende Unabhängigkeitder Interfaces integrieren damit Schritt für Schrittauch andere Ein- und Ausgabegeräte und Interakti-onsmechanismen wie zum Beispiel Sprache undGesten. Unsere klassischen Sinne Sehen und Hörenkönnen damit durch weitere „körperbewusste“ (engl.„proprioceptive“) Modalitäten wie Berühren/Tasten,Schmecken, Riechen, aber auch Temperatur, Gleich-gewicht, Schmerz oder Aufmerksamkeit ergänztwerden. Solche „Non-Classical Interfaces“ habensich daher zu einem wichtigen Forschungsbereichentwickelt. Damit wird der Mensch als Ganzes in dieInteraktion miteinbezogen, was zu neuen Möglich-keiten des Lehrens und Lernens führt (ein aktuellesBeispiel ist die Nintendo Wii mit der Wiimote; Hol-zinger et al., 2010).
Intelligente Adap2ve seman2sche Interfaces
Da heutige Computersysteme zunehmend alle Le-bensbereiche durchdringen und sich die Interaktivitätzunehmend vom klassischen Schreibtisch wegbewegt,verbreiten sich neue ubiquitäre, pervasive Möglich-keiten für das Lehren und Lernen (Safran et al.,2009). In Zukunft werden Benutzeroberflächen mitintelligenten, semantischen Mechanismen ausgestattetwerden, die den Benutzerinnen und Benutzern beider Erledigung der immer größeren Vielfalt undKomplexität von Aufgaben des täglichen Lernensund wissensintensiven Arbeitens unterstützen (zumBeispiel Suchen, Ablegen, Wiederfinden oder Ver-gleichen). Diese Systeme passen sich dynamisch andie Umgebung, Geräte und vor allem ihre Benutze-rinnen und Benutzer und deren Präferenzen an (Hol-zinger & Nischelwitzer, 2005). Entsprechende Infor-mationen werden für die Gestaltung der Interaktionin Profilen gesammelt und ausgewertet (User pro-
GUI und Desktop sind Kernparadigmen der HCI, diezwar kon?nuierlich erweitert und verbessert werden(zum Beispiel Toolbars, Dialogboxen, adap?ve Menüs),aber vom Prinzip her konstant bleiben.
!
Moderne Interfaces erlauben nicht nur die Interak?ondes Menschen mit dem Computer mit herkömmlichenEingabegeräten, sondern versuchen hap?sche Mög-‐lichkeiten zu berücksich?gen.
!
4 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)
filing). Ebenso erlaubt die steigende technische Per-formanz die Multimedialität und Multimodalität vor-anzutreiben, wodurch man sich von der Desktop Me-tapher immer weiter entfernen kann. Damit könnenadaptive Systeme realisiert werden, bei denen dieSysteme selbst mit der Umgebung intelligent intera-gieren und semantische Information verarbeiten undso die User Interfaces der jeweiligen Situation, denBedürfnissen, dem Kontext und den vorhandenenEndgeräten anpassen (Holzinger et al., 2006).
Web 2.0 als Ausgangspunkt der veränderten HCI
Mit dem Aufkommen des Web 2.0 (O’Reilly, 2005,2006) veränderte sich die Interaktion – weg vom klas-sischen „Personal Computing“. Die Benutzerinnenund Benutzer sind nicht mehr passive Informations-konsumenten, sondern erstellen aktiv Inhalte, bear-beiten und verteilen und vernetzen sich darüberhinaus mit anderen („Social Computing“). Obwohlder Begriff Web 2.0 keine rein technische Ent-wicklung bezeichnet, werden einige Ansätze aus derInformatik unmittelbar damit verbunden, wie zumBeispiel RSS-Feeds (Really Simple Syndication) zumschnellen Informationsaustausch für die einfache undstrukturierte Veröffentlichung von Änderungen aufWebsites (zum Beispiel Blogs) in einem standardi-sierten Format (XML). Oder beispielsweise AJAX(Asynchronous JavaScript and XML) als mächtigesKonzept der asynchronen Datenübertragung zwi-schen einem Browser und einem Server. Damit hatman die Möglichkeit in einem Browser ein desktop-
ähnliches Verhalten zu simulieren. Damit ergebensich vielfältige Möglichkeiten für E-Learning-Anwen-dungen. Ein Beispiel: Studierende lernen meistenserst kurz vor der Prüfung, dann aber meistens mas-siert, das heißt kurz aber nahezu Tag und Nacht. Ausder klassischen Lernforschung ist aber bekannt, dassüber das Semester verteiltes Lernen wesentlich wir-kungsvoller ist. In einer Studie konnte gezeigtwerden, dass durch entsprechenden und gezieltenEinsatz eines Blogs dieses verteilte Lernen "er-zwungen" werden kann, was nicht nur zu einer bes-seren Prüfungsleistung führte, sondern auch nachhal-tiges Lernen förderte (Holzinger, Kickmeier &Ebner, 2009). Wir wollen uns nun aber in aller Kürzeeiniger Grundregeln für benutzergerechte HCI zu-wenden.
3. Grundregeln für benutzergerechte HCI
Wenn wir uns mit der Interaktion, Perzeption undKognition von Information durch den Menschen be-schäftigen, müssen wir einige wesentliche Unter-schiede zwischen Mensch und Computer kennen.Während Menschen die Fähigkeit zum induktiven,flexiblen Denken und komplexen Problemlösen aus-zeichnet, zeigen Computer bei deduktiven Opera-
tionen und logischen Aufgaben ermüdungsfreie Per-formanz (siehe Tabelle 1).
HCI und Usability
Zur Interaktion zwischen Mensch und Computer gibtes einige Elemente, die im Folgenden kurz vorgestelltwerden. Wichtig ist zu berücksichtigen, dass funk-tionale als auch ästhetische Elemente zusammen-wirken sollten. Brauchbarkeit (usefulness), Benutz-barkeit (usability) und Ästhetik (enjoyability) solltenausgewogen zusammenwirken.
Usability – was ist das eigentlich?
Effektivität wird darin gemessen, ob und in welchemAusmaß die Endbenutzer ihre Ziele erreichenkönnen. Effizienz misst den Aufwand, der zur Errei-chung dieses Ziels nötig ist. Zufriedenheit schließlichist gerade im E-Learning wichtig, denn es enthältsubjektive Faktoren wie „joy of use“, „look and feel“und „motivation and fun“ „(enjoyability“). Usability
Mensch Computer
Empfindlichkeit für Reize(visuelle, auditorische,tak?le, olfaktorische)
Präzises Zählen und Mes-‐sen physikalischer Größen
Fähigkeit zum induk?venDenken und komplexenProblemlösen
Deduk?ve Opera?onen,formale Logik, Anwendenvon Regeln
Bildung von vernetztemWissen und Behalten übergroße Zeiträume
Speichern großer Daten-‐mengen, die nicht aufein-‐ander bezogen sind
Flexibilität bei Entschei-‐dungen, auch in neuar?-‐gen Situa?onen
Zuverlässige Reak?on aufeindeu?g definierte Ein-‐gangssignale
Entdecken unscharfer Si-‐gnale, auch vor einemRauschhintergrund
Zuverlässige und ermü-‐dungsfreie Performanzüber langen Zeitraum
Tabelle 1: Grober Vergleich Mensch-‐Computer(vgl. Holzinger, 2000b)
Usability ist nicht nur die – wie das Wort ins Deutscheübersetzt wird – schlichte „Gebrauchstauglichkeit“.Usability setzt sich nämlich aus Effek?vität, Effizienzund der Zufriedenheit der Endbenutzerinnen undEndbenutzer zusammen.
!
Human–Computer Interac?on. Usability Engineering zur Gestaltung im Bildungskontext — 5
wird demnach durch optimales Zusammenspiel vonEffektivität, Effizienz und Zufriedenheit für einenbestimmten Benutzerinnenkontext und Benutzer-kontext gemessen.
In den folgenden vier Aufzählungen soll exempla-risch klar werden, worauf es in der Usability an-kommt: ▸ Orientierung (zum Beispiel Übersichten, Gliede-
rungen, Aufzählungszeichen, Hervorhebungen,oder Farbbereiche) dienen dazu, sich zurechtzu-finden. Die Endbenutzer müssen stets zu jederZeit genau erkennen, wo sie sich befinden und wosie „hingehen“ können.
▸ Navigation (zum Beispiel Buttons oder Links)helfen den Endbenutzern sich zu bewegen und ge-zielt bestimmte Bereiche anzuspringen, zum Bei-spiel über eine Navigationsleiste. Die Navigationmuss logisch, übersichtlich, rasch und konsistent(immer gleichartig) erfolgen. Sprichwort: „Whatever you do, be consistent“ (das gilt auch fürFehler: solange dieser konsistent ist, fällt diesernicht so sehr auf).
▸ Inhalte (zum Beispiel Texte, Bilder, Töne, Anima-tionen oder Videos) sind die Informationen, dievermittelt werden sollen (Content). Hier gelten alleGrundregeln der menschlichen Informationsver-arbeitung. Alle Inhalts-Elemente müssen entspre-chend aufbereitet werden. Text muss kurz undprägnant sein. Anweisungen müssen eindeutig undunmissverständlich sein.
▸ Interaktions-Elemente (zum Beispiel Auswahl-menüs, Slider oder Buttons) ermöglichen gewisseAktionen zu erledigen. Sämtliche Interaktionenmüssen den (intuitiven) Erwartungen der Endbe-nutzer entsprechen.
Usability-‐Engineering-‐Methoden sichern den ErfolgEine breite Palette an Usability-Engineering-Me-thoden (UEM) sichern erfolgreiche Entwicklungs-prozesse (siehe Holzinger, 2005). Ein Beispiel dafürist: Der Ansatz „User-Centered Design“ (UCD) ori-
entiert sich an Bedürfnissen, Fähigkeiten, Aufgaben,Kontext und Umfeld der Endbenutzer, die vonAnfang an in den Entwicklungsprozess mit einbe-zogen werden. Daraus entwickelte sich das „Learner-Centered Design“ (LCD), das sich auf den Grund-
lagen des Konstruktivismus (Lernen als konstruktiveInformationsverarbeitung) und des problembasiertenLernen stützt. Ähnlich wie beim UCD fokussiert sichdas LCD auf das Verstehen der Lernenden imKontext.
Ähnlich wie im User-Centered Design wird beidieser Methode ein spiralförmiger (iterativer) Ent-wicklungsprozess durchlaufen, der aus drei Phasenbesteht. In jeder Phase kommen spezielle Usability-Methoden zum Einsatz, die Einblick in die Bedürf-nisse, das Verhalten und den Kontext der Endbe-nutzer erlauben (zum Beispiel: Wer? Was? Wann?Wozu? Wie? Womit? Warum?). So kann eine genaueKenntnis der Lernenden gewonnen werden: Ziele,Motivation, Zeit, Kultur, Sprache, VoraussetzungenVorwissen und weiteres.
Es wird jeweils zum nächsten Schritt übergangen,wenn kein nennenswerter Erkenntnisgewinn mehrerzielt wird. Wichtig ist die interdisziplinäre Zusam-menarbeit verschiedener Personen, wie zum BeispielFachexpertin/innen, Didaktiker/innen, MultimediaExpertin/innen und Usability-Ingenieure – und denLernenden! Selten fallen alle Rollen in einer Personzusammen. Während der Analysen wird klar, welchesdidaktische Modell für den jeweiligen Kontext ambesten geeignet ist und welche pädagogischen Kon-zepte angewandt werden können, die die Lernenden
im Zielkontext mit der jeweiligen Zieltechnologie(zum Beispiel Mobiltelefon, iPod oder iTV) best-möglich unterstützen. Mit Hilfe eines ersten Proto-typen kann Einsicht in viele Probleme gewonnenwerden. Sehr bewährt hat sich so genanntes „RapidPrototyping“, das auf papierbasierten Modellenberuht und enorme Vorteile bringt. Dabei kann dasVerhalten der Endbenutzerinnen und Endbenutzerzum Beispiel mit der Lautdenken-Methode (engl.„thinking aloud“) untersucht werden.
Erst wenn auf Papierebene alles „funktioniert“wird ein computerbasierter Prototyp erstellt, derdann wiederholt getestet wird. Erst wenn auch hierkein weiterer Erkenntnisgewinn erfolgt, kann dieFreigabe für die Umsetzung der endgültigen Versiongegeben werden. Papier in der Anfangsphase, dasklingt seltsam ist aber extrem praktisch, weil wesent-
Das Tool (E-‐Learning Umgebung) und der Content(Lerninhalt) müssen einen maximalen Nutzen (Ler-‐nerfolg) bringen.
!
„Thinking aloud“ beschreibt eine Methode bei demzumeist 4-‐5 Testpersonen gebeten werden, ein Pro-‐gramm oder einen Programmablauf zu testen unddabei gebeten werden ihre Gedanken laut auszu-‐sprechen.
!
6 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)
liche Interaktionselemente schnell erstellt und simu-liert werden können, ohne dass bereits Programmier-arbeit geleistet wird.
Lerninhalt – Metadaten – Didak2k
Damit E-Learning-Content einem lerntheoretisch ad-äquaten Ansatz entspricht, muss dieser nicht nur ent-sprechend aufbereitete Lerninhalte und Metainfor-mation (Metadaten, das sind Informationen die zumBeispiel das Wiederfinden ermöglichen) enthalten,sondern auch noch einige weitere technische Voraus-setzungen erfüllen. Ähnlich wie in der objektorien-tierten Programmierung (OOP), entstand die Grun-didee von Lernobjekten, das heißt komplexe Lernin-halte (engl. „content“) auf Objektebene zu erstellen.Wichtige technische Eigenschaften solcher Objekte(die man sich zumindest wünscht) sind Austauschfä-higkeit (engl. „interoperability“) und Wiederverwert-barkeit (engl. „reusability“). Dazu muss es aber nichtnur Lerninhalte und Metadaten enthalten, sondernauch Vorwissensfragen (engl. „prior knowledge ques-tions“) und Selbstevaluierungsfragen (engl. „self-eva-luation questions“). Vorwissensfragen haben im Ler-nobjekt die Funktion von Advance Organizers(Ausubel, 1960). Dabei handelt es sich um einen in-struktionspsychologischen Ansatz in Form einer„Vorstrukturierung“, die dem eigentlichen Lernma-terial vorangestellt werden. Allerdings driften hier dieForschungsbefunde auseinander: die ältere Forschungbetont, dass ein Advance Organizer nur dann wirk-sam wird, wenn dieser tatsächlich auf einem höherenAbstraktionsniveau als der Text selbst liegt, das heißtlediglich eine inhaltliche Zusammenfassung des nach-folgenden Textes ist noch keine Vorstrukturierung.Solche Vorstrukturierungen, die analog zu den Struk-turen des Textes aufgebaut sind, bringen bessere Er-gebnisse bei der inhaltlichen Zusammenfassung alssolche, die zwar inhaltlich identisch, aber nicht indiesem Sinn analog aufgebaut sind. Andererseits hebtdie jüngere Forschung hervor, dass sich konkrete, dasheißt weniger abstrakt formulierte Vorstrukturierungauf das Behalten längerer Texte positiv auswirkt. Sieaktivieren demnach das vorhandene Vorwissen undverbinden sich damit zu einer „reichhaltigen Vor-stellung“ – einem mentalen Modell (dazu Ausubel,1968; Kralm & Blanchaer, 1986; Shapiro, 1999). DasKonzept der Advance Organizer ist verwandt mitdem Schema-Modell kognitiver Informationsverar-beitung (Bartlett, 1932). Schemata spielen einewichtige Rolle bei der sozialen Wahrnehmung, beimTextverstehen, beim begrifflichen und schlussfol-gernden Denken und beim Problemlösen.
Ähnlich wie Schemata funktioniert die Theorie derFrames und Slots nach Anderson (Anderson et al.,1996). Die Wissensrepräsentation mit Hilfe vonFrames stellt eine objektorientierte Wissensrepräsen-tation dar und zeigt Ähnlichkeiten zwischen mensch-lichem Gedächtnis und wissensbasierenden Informa-tionssystemen. Objekte der realen Welt werden dabeidurch so genannte Frames dargestellt. Die Eigen-schaften der Objekte werden in den Frames in so ge-nannten Slots (Leerstellen) gespeichert. Der Tatsache,dass es in der realen Welt mehrere unterschiedlicheObjekte eines Objekttyps gibt, wird mit Hilfe von ge-nerischen Frames und deren Instanzen Rechnung ge-tragen. Ein generischer Frame hält für jedes Attribut,mit dem ein Objekt beschrieben wird, einen Slotbereit. In einer Instanz des generischen Frames wirdnun jedem Slot – entsprechend für das Attribut für
das er steht – ein Wert zugeordnet. Die Beziehungzwischen einem generischen Frame und einer Instanzwird mit Hilfe des „is-a“-Slot hergestellt. Im Beispielist im ,,is-a“-Slot gespeichert, dass es sich bei Ka-tharina um ein Kind handelt. In den übrigen Slotssind jeweils Werte zu den Attributen gespeichert.Diese Theorien besagen, dass Lernende besserlernen, wenn die Information assoziativ organisiertist, denn: die Lernenden bauen neue Informationstets auf alten Informationen (Vorwissen) auf. Be-
reits (Piaget, 1961) bezeichnete Schemata als grundle-gende Bausteine zum Aufbau von Wissen.
Was bringt Usability?
Ein Usability-orientierter Prozess schafft Erfolgssi-cherheit, deckt Risiken frühzeitig auf und sichert eineendbenutzerzentrierte Entwicklung.
„Bedienerfreundlichkeit“ wird im englischen Sprach-‐raum nicht mit Usability bezeichnet. Der Begriff Usa-‐bility setzt sich aus zwei Worten zusammen: use (be-‐nutzen) und ability (Fähigkeit), wird im deutschen mit„Gebrauchstauglichkeit“ übersetzt und umfasst weitmehr als nur Bedienerfreundlichkeit: In der ISO Norm9241 wird Usability als das Ausmaß definiert, in demein Produkt durch bes?mmte Benutzer/innen ineinem bes?mmten Nutzungskontext (!) genutztwerden kann, um deren Ziele effek?v und effizient zuerreichen.
!
Erfolgsregel: Alles was bereits in der Anfangsphase er-‐kannt wird spart Zeit und Kosten! Der Return on In-‐vestment (ROI) liegt dabei zwischen 1:10 bis 1:100.
!
Human–Computer Interac?on. Usability Engineering zur Gestaltung im Bildungskontext — 7
Usability-Engineering-Methoden machen nichtnur Probleme sichtbar, sondern generieren in derEntwicklungsphase neue Ideen und Möglichkeiten –denn Usability Engineering stellt den Menschen inden Fokus der Entwicklung!
4. Ausblick
So spannend auch immer Forschung und Ent-wicklung neuer Technologien zur Unterstützungmenschlichen Lernens ist, es muss uns stets klar sein:Lernen ist ein kognitiver Grundprozess, den jedes In-dividuum selbst durchlaufen muss – Technologiekann menschliches Lernen lediglich unterstützen –nicht ersetzen. Unsere großen Chancen beim Einsatzneuer Technologien liegen zusammengefasst in dreigroßen Bereichen (Holzinger, 1997; Holzinger &Maurer, 1999; Holzinger, 2000a): ▸ Sichtbarmachung von Vorgängen, die wir mit klas-
sischen Medien (zum Beispiel der Schultafel) nichtdarstellen können (wie zum Beispiel interaktive Si-mulationen, Animationen, Visualisierungen);
▸ intelligenter Zugriff auf Information an jedemOrt zu jeder Zeit (zum Beispiel M-Learning) undschließlich
▸ motivationale Effekte (das heißt Motivation,
Steuerung der Aufmerksamkeit und „Arousal“(Anregung) durch entsprechenden Medieneinsatz).
Technologiegestütztes Lehren und Lernen er-fordert es, den gesamten Bildungsprozess inklusivedie durch die neuen Medien entstehende Lehr-Lern-Kultur zu betrachten. Fragen der Effektivität (Aus-maß der Zielerreichung) und der Effizienz (Kosten-Nutzen Relation) sind notwendig. HCI-Forschungversucht einen kleinen Beitrag dazu zu leisten undUE versucht die Erkenntnisse auf systemischerEbene einfließen zu lassen.
Literatur
▸ Anderson, J. R.; Reder, L. M. & Lebiere, C. (1996). WorkingMemory: Activation Limitations on Retrieval. In: CognitivePsychology, 30, 3, 221-256.
▸ Ausubel, D. P. (1960). The use of advance organizers in thelearning and retention of meaningful verbal material. In:Journal of Educational Psychology, 51, 267-272.
▸ Bartlett, F. C. (1932). Remembering. London: Cambridge Uni-versity Press.
In der Praxis: Evaluation von Systemem und SoftwareFür die Praxis ist die Evalua?on, also die Beurteilung von Sys-‐temen und Solware wich?g. Eine Evalua?on sollte stets sys-‐tema?sch, methodisch und prozessorien?ert durchgeführtwerden. Es wird unterschieden zwischen forma2ver Evalua?on(während der Entwicklung) und summa2ver Evalua?on(nach Fer?gstellung). Subjek2ve Evalua?on schließt diemündliche und die schrilliche Befragung und das lauteDenken ein. Objek2ve Evalua?on bedient sich der anwe-‐senden und abwesenden Beobachtung. Bei lei[adenorien2erten Evalua?onsmimeln wird das Prod-‐ukt entlang eines Prüfleioadens beurteilt, der sich aus typi-‐schen Aufgaben des Systems ergibt. Bei der Erfassung derMesswerte können verschiedene Skalen (zum Beispiel Nomi-‐
nalskala, Rangskala, Verhältnisskala) verwendet werden, dieunter bes?mmten Voraussetzungen durch eine Skalentrans-‐forma?on ineinander übergeführt werden können. Mes-‐sungen sollen sich stets durch hohe Reliabil ität(Zuverlässigkeit), Validität (Gül?gkeit) und Objek?vität (Sach-‐lichkeit) auszeichnen. Als Beurteilungsverfahren (Zuweisungvon Werten) werden Grading (Einstufung), Ranking(Reihung), Scoring (Punktevergabe) und Appor?oning (Auf-‐teilung, Zuteilung) verwendet. Eine quan?ta?ve Beurteilung(Vorteil: leichte Vergleichbarkeit von Systemen) kann durchSchulnoten erfolgen, aber ol wird es auch umgekehrt ge-‐macht: Mehr ist besser. Mul?media-‐Systeme können syste-‐ma?sch mit Checklisten beurteilt werden.
Überlegen Sie wie man mit zukünligen Computersys-‐temen in Dialog treten könnte? Denken Sie dabei anschon vorhandene Interfaces, zum Beispiel WiiRemote Controller, was ist dort besonders gut ge-‐lungen? Was wird unterstützt? Was könnte damit allesgemacht werden?
?
Gehen Sie systema?sch Ihre persönliche Arbeitsum-‐gebung durch (also jene Dinge die Sie selbst als Lern-‐unterstützung verwenden) und bewerten Sie diesemit der Schulnotenskala (1 „sehr gut“ bis 5 „nicht ge-‐nügend)“ anhand der folgenden ausgewählten Kri-‐terien ▸ Technische Performanz -‐ funk?oniert alles schnell,zügig und ohne viel zu klicken? ▸ Klarheit -‐ sind alle Funk?onen sofort, einfach undunmissverständlich erkennbar?▸ Konsistenz -‐ ist alles durchgängig, einheitlich undan der erwarteten Stelle?▸ Amrak?vität -‐ ist das „look and feel“ ansprechend,fühlen Sie sich wohl?▸ Fehlertoleranz -‐ werden Eingabefehler tolerant be-‐handelt, ist stets ein Zurück möglich?
?
8 — Lehrbuch für Lernen und Lehren mit Technologien (L3T)
▸ Card, S. K.; Moran, T. P. & Newell, A. (1983). The psychologyof Human-Computer Interaction. Hillsdale: LawrenceErlbaum Ass..
▸ Cuhls, K.; Ganz, W. & Warnke, P. (2009). Foresight Prozess. ImAuftrag des BMBF. Zukunftsfelder neuen Zuschnitts. URL:http://www.bmbf.de/pub/Foresight-Prozess_BMBF_Zu-kunftsfelder_neuen_Zuschnitts.pdf [2010-08-08].
▸ Holzinger, A. & Maurer, H. (1999). Incidental learning, moti-vation and the Tamagotchi Effect: VR-Friends, chances fornew ways of learning with computers. Paper presented at theComputer Assisted Learning, CAL 99, London.
▸ Holzinger, A. & Nischelwitzer, A. (2005). Chameleon LearningObjects: Quasi-Intelligente doppelt adaptierende Lernobjekte:Vom Technologiemodell zum Lernmodell. In: OCG Journal,30(4), 4-6.
▸ Holzinger, A. (1997). A study about Motivation in ComputerAided Mathematics Instruction with Mathematica 3.0. In: Ma-thematica in Education and Research, 6(4), 37-40.
▸ Holzinger, A. (2000a). Basiswissen Multimedia Band 2: Lernen.Kognitive Grundlagen multimedialer Informationssysteme.Das Basiswissen für die Informationsgesellschaft des 21. Jahr-hunderts. Würzburg: Vogel, URL: http://www.basiswissen-multimedia.at [2010-10-18].
▸ Holzinger, A. (2000b). Basiswissen Multimedia Band 3: Design.Entwicklungstechnische Grundlagen multimedialer Informa-tions Systeme. Würzburg: Vogel, URL: http://www.basis-wissen-multimedia.at [2010-10-18].
▸ Holzinger, A.; Nischelwitzer, A. & Kickmeier-Rust, M. D.(2006). Pervasive E-Education supports Life Long Learning:Some Examples of X-Media Learning Objects. Paper pre-sented at the World Conference on Continuing EngineeringEducation. Wien, URL:http://www.wccee2006.org/papers/445.pdf [2010-10-18].
▸ Holzinger, A., Kickmeier-Rust, M.D. & Ebner, M. (2009). In-teractive Technology for Enhancing Distributed Learning: AStudy on Weblogs. In: Proceedings of HCI 2009 The 23ndBritish HCI Group Annual Conference, 309–312. CambridgeUniversity, UK, British Computer Society
▸ Holzinger, A.; Softic, S.; Stickel, C.; Ebner, M.; Debevc, M. &Hu, B. (2010). Nintendo Wii Remote Controller in Higher
Education: Development and Evaluation of a DemonstratorKit for e-Teaching. In: Computing & Informatics, 29(3), 601-615.
▸ Kralm, C. & Blanchaer, M. (1986). Using an advance organizerto improve knowledge application by medical students in com-puter-based clinical simulations. In: Journal of ComputerBased Instruction, 13, 71-74.
▸ Niegemann, H. M.; Domagk, S.; Hessel, S.; Hein, A.; Hupfer,M. & Zobel, A. (2008). Kompendium multimediales Lernen,Reihe: X.media.press. Berlin/Heidelberg: Springer.
▸ Norman, D. A. (1986). Cognitive engineering. In: D. Norman& S. Draper (Hrsg.), User Centered System Design: New Per-spectives on Human-Computer interaction). Hillsdale: La-wrence Erlbaum Ass..
▸ O’Reilly, T. (2005). What is Web 2.0 – Design Patterns andBusiness Models for the Next Generation of Software. URL:http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html [2010-08-08].
▸ O’Reilly, T. (2006). Web 2.0: Stuck on a name or hooked onvalue? In: Dr Dobbs Journal, 31(7), 10-10.
▸ Piaget, J. (1961). On the development of memory and identity.Worchester (MA): Clark University Press.
▸ Safran, C.; Ebner, M.; Kappe, F. & Holzinger, A. (2009). m-Learning in the Field: A Mobile Geospatial Wiki as an examplefor Geo-Tagging in Civil Engineering Education. In: M. Ebner& M. Schiefner (Hrsg.), Looking Toward the Future of Tech-nology-Enhanced Education: Ubiquitous Learning and the Di-gital Native., Hershey, PA: IGI Global, 444-454.
▸ Schulmeister, R. (2002). Taxonomie der Interaktivität von Mul-timedia - Ein Beitrag zur aktuellen Metadaten-Diskussion. In: it+ ti - Informationstechnik und Technische Informatik, 44(4),193-199.
▸ Shapiro, A. M. (1999). The relationship between prior know-ledge and interactive overviews during hypermedia-aidedlearning. In: Journal of Educational Computing Research, 20,2, 143-167.
▸ Shneiderman, B. (1983). Direct manipulation: A step beyondprogramming languages. In: IEEE Computer, 16(8), 57-69.
top related