De presentatie wordt gedownload. Even geduld aub

De presentatie wordt gedownload. Even geduld aub

Evaluation a. Why / when b. Evaluation representations and techniques 1.User based 2.(expert-)Knowledge-based 3.Analytisch 4.Norms and standards 5.Technisch.

Verwante presentaties


Presentatie over: "Evaluation a. Why / when b. Evaluation representations and techniques 1.User based 2.(expert-)Knowledge-based 3.Analytisch 4.Norms and standards 5.Technisch."— Transcript van de presentatie:

1 Evaluation a. Why / when b. Evaluation representations and techniques 1.User based 2.(expert-)Knowledge-based 3.Analytisch 4.Norms and standards 5.Technisch c. Samenvatting

2 a. Waarom evalueren en testen? Usability volgens ISO Effectiveness – does it work for prospective users? Efficiency – how much (time, effort) does it cost them? Satisfaction – their subjective reaction Evaluatie verbetert het ontwerp User-centered: is deze web site nuttig en bruikbaar voor bedoelde gebruikers? Goedkoopste manier fouten te repareren: hoe eerder hoe beter Gebruikers en klanten betrekken bevordert acceptatie van het product

3 Waarom vroeg evalueren en testen? Source: Hawksmere - ISO seminar material $ 1,000$ 6,000$ 60,000 Analysis & Design Implementation Maintenance fasen kosten Kosten van het verbeteren van fouten:

4 Wanneer evalueren? AnalysisConstructionTransition User Involvement Expert Involvement Maintenance Expert Review Surveys Focus Group Sessions Active Usability Testing Intermediate Usability Testing Remote Usability Testing DiscoveryElaboration Concept Testing Continuous Usability Evaluation Target Group Analysis

5 Wanneer evalueren? Vroeg in ontwerpproces: –Conceptueel (doel, taken, soort gebruiker, concept web site, etc.) –Nog geen website-specifieke taken Later: –Specifieke taken zijn bekend, dus kunnen getest worden –Te laat voor conceptuele fouten

6 b. Evaluation representations and techniques Evaluation is based on representations (models of the system): Formal representations - to be used by design team CCT, ETAG, GOMS, NUAN, …. Representations for users, client, and expert colleagues scenario simulation and mock-up interactive prototype

7 Evaluation in design phases Scenario and simulation: claims analysis prototype: cognitive walk-through prototype and implemented system: heuristic evaluation objective observation (usability lab) subjective usability evaluation mental representation and activity (hermeneutic techniques) implemented system: standards (ISO), performance measures

8 Types of evaluation techniques 1.User-based (gebruiker) 2.Knowledge-based (ervaring en kennis) 3.Analytisch (statistische gegevens) 4.Norms and standards 5.Technisch (code, implementatie) – hier niet uitgewerkt (“engineering expertise

9 1. User-based User-centered design: gebruiker betrekken in ontwerp Op verschillende manieren: Interview (individueel) Focus groep (8-10 deelnemers) Observatie (individueel)

10 1. User-based Wat evalueer je: Tussenliggende resultaten –Informatie Architectuur (card sorting bijv.) –Wireframes –Grafisch ontwerp –Screenshots –Etc. Prototype: –Papier –Interactieve mockup (bv. clickable powerpoint) Werkende web site

11 1. User-based, voorbeeld: focus groep

12 1. User-based: observatie Soorten observaties: Opdrachten met vooraf gekozen taken (in usability laboratorium): +/-Gecontrolleerde omgeving +Specifieke procedure +Makkelijk vast te leggen -Gebruiker voelt zich ‘bekeken’ -Gebruikers geven minder snel op “Normaal” gebruik (field study)

13 AV One-way mirror Observation Room Study Room Mobile devices     Sound-proof walls Video camera mounted on ceiling Dual display   DigiTV Een typisch Usability Lab

14 De observatie ruimte

15 De gebruikers-ruimte

16 1. User-based observatie Aan hand van voor de gebruiker typische taken (ref. scenario’s en flowcharts) Kwalitatief: wat voor problemen komt de gebruiker tegen? Verder mening, op- en aanmerkingen. –Is de taak uitvoerbaar? Hoe lang doet de gebruiker er over? –Als het niet in 1x goed gaat, waar gaat de gebruiker dan zoeken? –Welke woorden begrijpt de gebruiker niet? –Welke elementen vallen direct op en welke niet? –Waar klikt de gebruiker op? –Hoe wordt de scroll-balk gebruikt? Kwantitatief: usability metrics per taak (tijd, aantal fouten, aantal stappen, aantal taken, etc.)

17 1. User-based: veldstudie Soorten observaties: Opdrachten met vooraf gekozen taken (in usability laboratorium): +/-Gecontrolleerde omgeving +Specifieke procedure +Makkelijk vast te leggen -Gebruiker voelt zich ‘bekeken’ -Gebruikers geven minder snel op “Normaal” gebruik (field study) +natuurlijke setting en natuurlijke motivatie +/-Met onvoorziene gebeurtenissen +Vrijer verloop -Moeilijker op te nemen -Weinig ruimte voor observators

18 Test taken Taken, dus geen functionaliteiten –GOED: “Waar kun je het nieuwe boek over Harry Potter kopen?” –FOUT: “Zoek in de sectie wetgeving naar de voorwaarden voor huursubsidie in het woningreglement” Vraag, geen opdracht –Vb.(website): “Hoeveel kost dit product?” Niet: “Vind de productinformatie” –Geef gebruiker vrijheid om taak uit te voeren. Taken moeten realistisch en typisch zijn (ref. scenario’s) Taken moeten het product redelijk ‘dekken’ –Verschillende aspecten / onderdelen / functionaliteit –Doorgaans 10 – 15 taken (45 minuten)

19 2. Knowledge-based evaluatie Op basis van kennis en ervaring van ontwerpers Cognitive walkthrough Heuristische evaluaties Checklists

20 Expert evaluation: Cognitive walkthrough Definition: “finding usability problems in a user interface by having a small set of evaluators examine the interface and give an opinion for each step in the dialogue for a selected set of scenarios” Evaluators: user interface specialists, not from the design team

21 Cognitive walkthrough Specify scenarios for possible problematic interactions, at the level of single user and system actions Ask the evaluator to answer a small set of standard questions for each step Example question set: what would a normal user do in this situation? why (based on what information or knowledge)? what would the user expect the system to do next?

22 Cognitive walkthrough Problems: not possible to consider all possible scenarios no information on recovery of errors time aspect is not considered Benefits: very early indications of problems of representation of information and of consistency

23 Cognitieve walkthrough Systematische methode voor het doorlopen van de site Voer typische taak uit op site (of prototype) en kijk of alle bijbehorende stappen door een “gemiddelde” gebruiker zouden kunnen worden uitgevoerd. Kan worden uitgevoerd door 1 persoon (ontwerper)

24 Cognitieve walkthrough Bestaat uit een aantal stappen: 1.Definieer de doelgroep voor de test 2.Creëer realistische scenario's 3.Doorloop de scenario’s met ‘de 4 vragen’ 4.Analyseer elk scenario en geef ontwerp verbeteringen Stap 1 en 2 zijn al gedaan in de taakanalyse

25 Cognitieve walkthrough De vier vragen om elke stap van de scenario’s te analyseren: Wat wil de gebruiker in deze situatie als volgende stap bereiken? Wat denkt de gebruiker dat hij nu moet doen? Waarom denkt de gebruiker dat dit de goede actie is? Welke systeem reactie verwacht de gebruiker?

26 Heuristische evaluatie Heuristiek = vuistregel. Garanderen in de meeste gevallen basis usability Aan de hand van bepaalde aspecten en principes: –Bv: functionaliteit, dialoog, representatie, … Kan worden gedaan door een usability specialist Kan worden gedaan met een groep –Meerdere mensen zorgen voor aanvullende inzichten

27 Heuristic Evaluation (Nielsen) Visibility of system status –The system should always keep users informed about what is going on, through appropriate feedback within reasonable time. Match between system and the real world –The system should speak the users' language, with words, phrases and concepts familiar to the user, rather than system-oriented terms. Follow real-world conventions, making information appear in a natural and logical order. User control and freedom –Users often choose system functions by mistake and need a clearly marked "emergency exit" to leave unwanted states without having to go through an extended dialogue.

28 Heuristic Evaluation Consistency and standards –Users must not wonder whether different words, situations, or actions mean the same thing. Error prevention –Even better than good error messages is a careful design which prevents a problem from occurring in the first place. Recognition rather than recall –Make objects, actions, and options visible. The user should not have to remember information from one part of the dialogue to another. Instructions for use of the system should be visible or easily retrievable whenever appropriate. Flexibility and efficiency of use –Accelerators - unseen by novices - may speed up interaction for experts so that systems can cater to both inexperienced and experienced users. Let users tailor frequent actions.

29 Heuristic Evaluation Help users recognise, diagnose, and recover from errors –Express error messages in plain language (no codes), precisely indicate the problem, and constructively suggest a solution. Help and documentation –Even though systems are best used without documentation, it may be necessary to provide help. This should not be too large, be easy to search, focused on user tasks, listing concrete steps to be carried out. Aesthetic and minimalist design –Dialogues should not contain information that is irrelevant or rarely needed. Every extra unit of information in a dialogue competes with relevant units of information and diminishes relative visibility.

30 Expert evaluation: Heuristic evaluation checklist Roe & Arnold

31 Heuristic evaluation Make errors caused by system limitations self-exploratory

32 Heuristic evaluation

33

34

35

36

37

38

39 3. Analytische evaluatie Kwantitatief, gebaseerd op cijfers Questionnaires: –Naar zoveel mogelijk mensen opsturen –Subjectief!! Hit logs: –Uitgebreide site-meter –Page hits + transfer rates. Welke pagina’s worden het meest bezocht en vanuit waar gaat men waarheen? –Interpretatie is speculatief

40 Subjective evaluation techniques Not less reliable than objective techniques examples: SUMI software usability SMEQ mental effort ESPRIT MUSIC project ISA mental load instantaneous self assessment

41 SUMI (licence needed) 50 statements on software system 5 sub-scales for experienced users, in standard working conditions diagnosis of usability problems requires at least 10 users sub-scales: Efficiency; Affect; Helpfulness; Control; Learnability global score: perceived usability

42 SUMI Scoring through “stencils” standard scores, based on large samples of industrial product evaluation Reliable interpretation requires a sample of at least 10 users who “know” the product in normal context of use. diagnosed: < 40 - action needed > 55 - acceptable software > 60 - good software for individual users or individual questions, see manual

43 System Usability Scale (SUS) – Measuring website usability: Digital Equipment Corporation, 1986 John Brooke: A quick and valid tool, based on ISO and European Community ESPRIT project “MUSiC” Analytische evaluatie: SUS

44 SUS Originally aiming at “software systems” To be used after users got to “know” the system in real life context. Later adapted to websites Validity: Correlates well with well established more time consuming general usability scales (e.g. SUMI)

45 SUS

46 Scoring: Items 1, 3, 5, 7, 9: strongly disagree = 0, etc. till Strongly agree = 4 Items 2, 4, 6, 8. 10: strongly disagree = 4, etc., till Strongly agree = 0 Add scores, multiply total by 2.5: Total score range 0 – 100

47 SUS Reliability: At least 15 users that have used the website for some realistic tasks in “natural” conditions Will lead to repeatable results

48 SUS Examples of tasks Task 1: Your digital camera uses SmartMediacards. Find the least expensive external reader (USB) for your PC that will read them. Task 2: You do lots of hiking. Find the least expensive personal GPS with map capability and at least 8 MB of memory.

49 For these websites: Finance.yahoo.com

50

51 SMEQ (no license needed) Cognitive workload for single tasks, performed with a system for experienced users, under standard conditions of use sample size 10 or more very simple scoring, very reliable (r =.82) ISA (no license needed) More easy ways to measure, simple rating buttons, though less reliable?

52 SMEQ ISA 150 exceptional 100 very strong strong fair reasonable 50 somewhat a little hardly 0 not at all

53 SMEQ Dutch version

54 4. Norms & standards ISO 9241 colors non-keyboard input devices usability principles information presentation user guidance menus command interfaces direct manipulation form filling natural language interfaces

55 c. Samenvatting Testen/evalueren is een wezenlijk en belangrijk onderdeel van het ontwerp proces: –Levert een verbeterd en dus goed ontwerp –Fouten voorkomen –Acceptatie Testen kan zowel vroeg als laat in het proces plaatsvinden Er zijn verschillende soorten testen die je kunt gebruiken –Gebruik de juiste tests op het juiste moment


Download ppt "Evaluation a. Why / when b. Evaluation representations and techniques 1.User based 2.(expert-)Knowledge-based 3.Analytisch 4.Norms and standards 5.Technisch."

Verwante presentaties


Ads door Google