La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

1 Évaluation des logiciels interactifs (1) M2-EIAH/DU-TICE, Paris 6

Présentations similaires


Présentation au sujet: "1 Évaluation des logiciels interactifs (1) M2-EIAH/DU-TICE, Paris 6"— Transcription de la présentation:

1 1 Évaluation des logiciels interactifs (1) M2-EIAH/DU-TICE, Paris 6 Méthodes dInspection (évaluation sans utilisateur) Cours 3 (partie 1)

2 2 Plan du cours Vos questions Cours 3: évaluation des logiciels interactifs (partie 1) Évaluer ? Méthodes dinspection ? Critères ergonomiques ? Retour sur vos questions Le projet Évaluation de projets existants Préparations des entretiens et des interviews Cours 3 : évaluation des logiciels interactifs (partie 2) Méthodes des tests utilisateurs Quelles méthodes choisir ?

3 3 (Rappel) Cours 1 : Facteurs de succès Cycle de conception Conception centrée usager Lanalyse des tâches et les analyses en contexte de travail usuel Le prototypage rapide Lévaluation constante Conception itérative La qualité de la programmation

4 4 Évaluer ? Qu'est-ce que l'évaluation ? Définition : évaluer = juger Objectivité ??? Référence ? Plusieurs approches : Critères raisonnés, modéles Évaluer quand ? pourquoi ? Moments d'évaluation Objectifs Évaluer quoi ? Variables cibles Évaluer comment ? à quel coût ? Méthodes, techniques Temps, argent

5 Définitions (début) évaluation en Génie Logiciel système = solution logicielle et matérielle les plans qualité fournissent des métriques pour le respect des normes de programmation (portabilité, maintenance etc.) ne fournissent aucune méthode pour s'assurer de l'utilisabilité évaluation ergonomique système interactif = { utilisateur(s), artefact(s) } s'intéresse à l'efficacité des systèmes humains- machines à l'utilisabilité/utilité du système interactif

6 6 Utilisabilité (rappel) norme ISO (1998) : lutilisabilité « est le degré selon lequel un produit peut-être utilisé par des utilisateurs identifiés, pour atteindre des buts définis avec efficacité, efficience et satisfaction dans un contexte dutilisation spécifié ». Bastien Utilisabilité/utilité : qualité ergonomique de l'interface

7 7 Définitions (fin) Évaluation : processus pour étudier les rapports entre la conception et l'utilisation Évaluation a priori, formative (conception) pour identifier ou prévoir les besoins, les scénarios dutilisation et les difficultés potentielles ou réelles des utilisateurs pour donner des idées et les évlauer Évaluation a posteriori, sommative (usage) pour caractériser les points forts et les points faibles d'un système interactif pour préparer les évolutions

8 Moments & Objectifs d'évaluation en cours de conception analyse de besoins, compréhension des situations, étude de lexistant sélection d'alternatives de conception conception itérative de maquettes/prototypes faisabilité et acceptabilité en cours de réalisation détection et correction de défauts, contrôle qualité, test de performance avant diffusion tests de déverminage, d'acceptabilité, vérification des performances intégration dans lactivité en cours de diffusion satisfaction, améliorations, incidents, support à l'utilisateur, maintenance, image du produit avant d'acheter comparaison de logiciels : technique/utilisabilité

9 9 Évaluation et cycle de conception

10 Évaluer quoi ? Les dimensions d'évaluation dépendent des objectifs et du contexte utilité la fiabilité, la qualité technique les temps de réponse utilisabilité la facilité d'apprentissage, la flexibilité, la robustesse lutilisation des fonctions la tolérance aux erreurs la qualité de la documentation et de lassistance la logique du travail les opinions ou les attitudes

11 Évaluer comment ? Sans utilisateurs : approche analytique a priori, ne nécessitant pas un système fondée sur des modèles implicites (méthodes dinspection, « low cost ») explicites (formels, approches automatiques) Avec utilisateurs : approche expérimentale (empirique) nécessitant un système (ou un prototype) recueil de données comportementales auprès d'utilisateurs (en situation réelle ou en laboratoire) Méthode d'évaluation coopérative (cours 3.2) Tests d'utilisabilité

12 12 Évaluer à quel prix ? Temps, argent, compétences Méthodes « low cost » Culture de lévaluation chez les informaticiens Évitent les gros problèmes, pas les problèmes subtils Informelles, qualitatives, évaluation formative Méthodes scientifiques et rigoureuses Gros projets, projets à risques, recherche Informations fiables, quantitatives Quel retour sur investissement pour les études dutilisabilité ? (ROI)

13 13 Plan Rappels Évaluer ? Méthodes dinspection Critères dévaluation heuristique/ergonomique Tests utilisateurs (cours 3.2) Choisir une méthode (cours 3.2)

14 Approches analytiques l'évaluation de l'IHM se fait a priori par comparaison avec un "modèle de référence" modèle qui n'est pas souvent formalisé ni explicité on distingue des approches informelles Méthodes dinspection (présentées ici) Méthodes « low cost » des approches formelles (ou semi-formelles) (non étudiées ici) modèles prédictifs analyse de tâches (KLM et GOMS) modèle linguistique (ALG et CLG) modèle de complexité cognitive (Kieras et Polson) modèles de qualité de l'interface approche cognitive recherche des qualités optimales

15 15 Les méthodes dinspection Inventaire Les jugements dexperts Les grilles dévaluation Les revues de conception (design walkthrough) Sappuient sur Des scénarios Des heuristiques, des recommandations ou des critères Avantages Pas cher et rapides (de lordre dune journée) Faciles à utiliser (détecter les erreurs flagrantes en 2 à 4 h) Inconvénients Ne permettent pas de détecter des erreurs subtiles (liées à l'annalyse du travail, au contexte)

16 Jugements d'experts Diagnostic a priori ou a posteriori un ou des experts donnent leur avis sur l'interface (ou le projet) sous la forme d'un rapport ou d'un formulaire Fondements Modèle de l'interface non formalisé (ni même explicité) Heuristiques, recommandations ou critères ergonomiques Résultats Points positifs et négatifs et leur pondération Prévision de difficultés dutilisation probables Informations sur les fonctionnements humains insuffisamment pris en compte Propositions daméliorations argumentées et pondérées

17 17 Jugement dexperts (Inspection heuristique) choisir au moins deux experts (domaine et utilisabilité) technique 1: fondée sur des scénarios jouer un des scénarios technique 2 : fondée sur des critères ou des guides étude systématique de tous les critères sur chaque écran Procédure commune 1.noter tous les problèmes rencontrés 2.analyser les causes 3.proposer des solutions 4.rédiger un rapport

18 18 Jugements dexperts : ++/-- Biais : Experts : vue plus générale, sources potentielles de dysfonctionnement Novices : difficultés matérielles et conceptuelles de bas niveau Biais de focalisation fonctionnement particulier ( e.g. d'utilisateurs novices), sur les "marottes" de l'expert domaine d'expertise (domaine, IHM, graphisme) ªIntérêt Pas cher, rapide et efficace, peut intervenir très tôt dans le cycle de conception Plusieurs experts

19 19 Pourquoi plusieurs experts ? Un expert ne détecte pas tous les problèmes Les bons évaluateurs trouvent les problèmes faciles et les problèmes difficiles

20 20 Jugements dexperts : études % Problèmes détectés Nombre d évaluateurs Évaluateurs spécialistes du domaine Évaluateurs généralistes Évaluateurs novices Évaluateurs spécialistes du domaine Évaluateurs généralistes Évaluateurs novices Évaluateurs spécialistes du domaine Évaluateurs généralistes Évaluateurs novices 20

21 21 ROI (Return on investment) problems foundbenefits / cost

22 22 Organiser des expertises Conseils : Au moins trois experts : avis indépendants puis coordonnés, voir contradictoires Ergonomes qualifiés dau moins trois ans dexpérience Leur donner des scénarios dutilisation et une description de la population des futurs utilisateurs Attention Ne remplacent pas les utilisateurs

23 Grilles d'évaluation principes Évaluation d'après une liste des propriétés d'une bonne interface Notation systématique sur une échelle de valeur (3 à 7 points) problèmes état de l'art en ergonomie, diversité des systèmes => grille spécifique à une application ? interprétation, niveau d'expertise de l'évaluateur, cohérence des réponses notation hétérogénéité de ce qui est noté : règle des 80/20 (ou 90/10) ne permet pas -de comprendre la nature du problème rencontré -de hiérarchiser les difficultés Avantages : utile pour faire des comparaisons

24 Revue de conception (Design Walkthrough ) Examen du produit par des pairs (entre 3 et 7) en cours de conception objectif : identifier des problèmes (pas les résoudre) durée : limitée à 1 h (fatigue) 4 rôles : Présentateur : déroule un scénario Scribe : note tous les commentaires Modérateur : centre la discussion sur l'utilisation veille au respect de l'horaire Observateurs : prennent le rôle de l'utilisateur, posent des questions, font des remarques ou critiques (constructives) sur l'utilisation

25 25 Plan Rappels Évaluer ? Méthodes dinspection Critères dévaluation heuristique/ergonomique Tests utilisateurs

26 1.Structuration des activités et guidage 2.Minimiser la charge de travail 3.Contrôle entre les mains de l'utilisateur 4.Adaptabilité 5.Prévision et récupération des erreurs 6.Compatibilité 7.Signifiance des codes et dénomination 8.Cohérence et homogénéité À lorigine de la norme Z , Décembre 1991, Evaluation des produits logiciels : Partie 1, Définition des critères ergonomiques de conception et dévaluation des interfaces utilisateurs. partie1.html#4 Critères de lINRIA (Bastien et Scapin)

27 27 Utilisation des critères Pour lévaluation Évaluation heuristique Pour la conception Inscrire les critères dévaluation dans les dossiers de conception Guide pour léquipe de conception Foultitude de critères normes et recommandations Parfois contradictoires Pour éveiller votre attention

28 Structuration des activités et guidage objectif : faciliter l'apprentissage par l'action, l'orientation, les prises de décisions techniques des roulettes de sécurité (étayage, scaffolding), incitation (prompting, affordance) structure de contexte déterminée par les actions possibles granularité des commandes format d'écran organisation spatiale des données importantes groupement format de présentation (titre, courbe, couleur, encadrés, justification) structuration des menus (préférez la largeur)

29 29 Guidage : étayage Deux aspects Aider l'utilisateur débutant à se repérer et à se construire une logique d'utilisation Permettre à un utilisateur expérimenter de gagner du temps Exemples : Les informations au survol Les assistants d'installation Installation recommandée Installation personnalisée Le compagnon office (masquer) Les accès rapides et raccourcis clavier

30 30 Guidage - incitation Exemples Contre-exemple certains jeux daventures

31 31 Guidage - groupement/distinction entre items Exemple Contre-exemple

32 Retours d'informations Objectif : informer pour permettre à l'utilisateur d'évaluer son action (modèle de Norman) pour rassurer (temps de réponse long) pour réduire la charge cognitive indication du contexte de travail (fenêtre courante, états, curseurs actifs) représentation des déplacements présentation des options (menus fantômes, surgissant, pop-up)

33 33 Guidage – retour dinformation À faire De 2 à 6 secondes : icône d'attente De 6 à 30 secondes : barre d'avancement Plus de 30 secondes : Barre d'avancement + affichage de l'opération en cours Contre-exemple

34 34 Guidage - lisibilité À faire Objectif : informer pour permettre à l'utilisateur d'évaluer son action pour rassurer (temps de réponse long) Définition du guidage : cest lensemble des moyens mis en œuvre pour conseiller, o, Objectif : informer pour permettre à l'utilisateur d'évaluer son action (modèle de Norman) pour rassurer (temps de réponse long) pour réduire la charge cognitive indication du contexte de travail (fenêtre courante, états, curseurs actifs) À ne pas faire OBJECTIF : INFORMER OBJECTIF : INFORMER POUR PERMETTRE À L'UTILISATEUR D'ÉVALUER SON ACTION POUR PERMETTRE À L'UTILISATEUR D'ÉVALUER SON ACTION POUR RASSURER (TEMPS DE RÉPONSE LONG) POUR RASSURER (TEMPS DE RÉPONSE LONG)

35 35 Lisibilité : Polices et style Jamais de souligné : exemple exemple Pas de textes longs en majuscules ni en italique : les majuscules rendent le texte plus difficile à lire mais facilitent l'identification d'un élément EXEMPLE EXEMPLE exemple exemple Affichage à l'écran : Police sans sérif (sans empattement) Exemples : Arial, Helvetica, Verdana, Comic Contre-exemple : Times

36 36 Lisibilité : Format d'affichage Les nombres : Aligner les entiers à droite Aligner les valeurs décimales sur la virgule Découper les nombres par groupe de 3 ou 4 chiffres Les listes alphabétiques alignées à gauche Labels et champs alignés à gauche Quand les labels sont de même longueur Labels alignés à droite et champs alignés à gauche Quand longueurs différentes

37 37 Lisibilité : Format

38 38 Lisibilité : Les couleurs Les couleurs sont codées par trois attributs (HSV Hue, Saturation, Value) Teinte : Longueur donde principale Saturation : Spectre de la couleur Bande étroite : couleur saturée Bande large : pastels Intensité : Degré de réflexion de la lumière ou clarté

39 39 Lisibilité : couleurs Tout le monde ne perçoit pas les couleurs de la même façon Utiliser la couleur et un autre attribut pour coder une information ou pour mettre en évidence Respecter le sens habituel donné aux couleurs dépend des pays des domaines Ex : le rouge signifie Finance : perte Chimie : chaud Signalisation : interdiction Cartographie : nationale Sécurité : danger Electricité : marche Circulation : arrêt

40 40 Les couleurs : recommandations Codage couleur Associer à chaque couleur une signification précise et uniforme Minimiser le nombre de couleurs Pour un objet donné, le nombre de couleurs utilisés doit être nettement inférieur au nombre de ses attributs Utiliser la couleur pour mettre en valeur telle ou telle partie de lécran (en particulier une information importante) une neutre et claire pour le fond décran des couleurs très contrastées pour exprimer une différence (et inversement) Principe du double codage : couleur et autre 8% des hommes sont daltoniens On

41 41 Couleurs à éviter Caractères : Bleu, rouge, violet (peu importe la couleur du fond). Couples : Fond/caractères Ne jamais utiliser ensemble Noir et bleu Rouge avec bleu Jaune avec violet Jaune avec vert Ces couples sont reconnus comme causant une sollicitation excessive de la rétine provoquant de l'inconfort qui peut s'aggraver avec le vieillissement. Fond : Les teintes de rouge et de jaune et ses dérivés (par ex. : le vert, l'orange...) Lisez-moi

42 42 Couleurs conseillées Choix 1 Fond : gris pâle, beige mais pas blanc Caractères : noir, magenta, vert Choix 2: Fond bleu Caractères : Blanc, or, vert Cyan, jaune, lavande Or, magenta Faites des tests !!!

43 43 Méthode de choix des couleurs Composer votre interface sans couleur La couleur est un plus Un codage coloré ne se suffit pas à lui-même Choix des couleurs 1.Identifier les objets à afficher 2.Regrouper ces objets par niveau de visibilité 3.Choisir les composantes de la couleur Teinte : connotation Saturation et intensité : visibilité 4.Vérifier les compatibilités 5.Prototyper le résultat obtenu

44 44 Utiliser les services de graphistes, faites des tests Penser au daltonisme 8 % des hommes Double codage : couleur + autre Respecter les conventions culturelles sur les couleurs Pas d'effet arbre de Noël Cours en ligne sur les couleurs couleur/couleurs.htm On Couleurs

45 45 Charge de travail Définition : Le critère charge de travail concerne lensemble des éléments de linterface qui ont un rôle dans la réduction de la charge perceptive ou mnésique (mnème = unité dinformation) des utilisateurs et dans laugmentation de lefficacité du dialogue 2 sous-critères brièveté concision actions minimales densité informationnelle

46 Règle de concision objectif : limiter la charge de travail compromis entre le bref et l'expressif pas de gadgets inutiles, limiter les fonctionnalités éviter les surcharges d'informations (limiter la densité) réduire la charge mnésique et le nombre d'actions physiques abréviations (utilisateurs expérimentés) compréhensibles dérivables selon des règles précises (commande I ou P) macro-commandes flexibilité abstraction minimiser les entrées et plus généralement les actions couper-coller valeurs par défaut (dynamiques ou préférences) défaire-repéter

47 47 Charge de travail - brièveté À faire À ne pas faire

48 48 Charge de travail - actions minimales À ne pas faire

49 49 Charge de travail - densité informationnelle À faire À ne pas faire

50 50 Charge de travail-densité

51 Règle du contrôle à l'utilisateur Objectif : l'interface doit apparaître comme étant sous le contrôle de l'utilisateur le système n'exécute des opérations qu'à la suite d'actions explicites de l'utilisateur Exemple : ne pas changer d'écran sans demande explicite prévenir si changement de contrôle prévoir pour les experts la possibilité d'anticiper, de sauter des étapes

52 52 Contrôle explicite Définition : ce critère regroupe 2 aspects différents la prise en compte par le système des actions des utilisateurs le contrôle des utilisateurs sur le traitement de leurs actions 2 sous-critères actions explicites contrôle utilisateur

53 53 Contrôle explicite - actions explicites À faire Indiquer les champs obligatoires dans un formulaire À ne pas faire

54 54 Contrôle explicite - contrôle utilisateur À faire À ne pas faire Impossibilité d annuler Prise de contrôle intempestive

55 55 Adaptabilité Définition : Un système est adaptatif quand il est capable de réagir selon le contexte, et selon les besoins et préférences des utilisateurs Un système est adaptable quand il permet à l'utilisateur de le paramétrer 2 sous-critères Flexibilité (adaptabilité) Prise en compte de lexpérience de lutilisateur (adaptativité)

56 Flexibilité Objectif : prendre en compte la diversité des utilisateurs et des situations Exemples : préférences, options, tableaux de bord prendre en compte les niveaux différents d'expertise Au moins : première utilisation, utilisations occasionnelles, utilisation répètées correction dorthographe valeurs par défaut parmi une liste à sélectionner représentation multiple des concepts associer plusieurs objets de présentation à un concept donné variations sur une forme de base unique possibilité de résoudre un problème de plusieurs manières respect du rythme de l'utilisateur éviter d'imposer un ordre pour les entrées d'informations

57 57 Adaptabilité - flexibilité Plusieurs façons d effectuer la même action Exemple copie de fichiers vers une disquette dans lexplorateur glisser - lâcher copier - coller (menu, raccourcis clavier, boutons) menu, envoyer vers

58 58 Adaptabilité - expérience de lutilisateur

59 59 Adaptativité Exemples : Menus partiels qui se déploient complètement au bout de quelques secondes Complétion automatique Contre-exemple : Le trombone L'adaptativité peut être problèmatique : il faut être très vigilant

60 Prévisions et récupérations des erreurs Principes : Ll'utilisateur a le droit à l'essai/ erreur L'utilisateur n'est pas l'idiot du village Sources principales d'anxièté dans l'utilisation de logiciels interactifs 3 sous-critères Prévention/ protection messages d'erreurs récupération

61 61 Protection contre les erreurs Exemple message d'alerte (quitter sans sauver) protéger en écriture ce qui n'est pas accessible à l'utilisateur (label des formulaires...) éviter les erreurs dès la saisie (listes déroulantes, complétion automatique) détecter les erreurs dès la saisie lors des saisies minimiser la frappe griser les menus non accessibles

62 62 Messages d'erreurs Immédiat Compréhensibles Précis et spécifiques Pas de double négation, de forme nominale, ni de forme passive Aimables Pas d'injure, ni de termes techniques Constructifs Éviter les impasses et proposer une sortie Visibles

63 63 Messages d'erreurs Mauvais exemples

64 64 Correction des erreurs À faire La commande annuler Expliquer comment réparer À ne pas faire

65 Règle de cohérence et d'homogénéité objectif : rendre l'interface prédictible, même interface dans le même contexte facilité l'apprentissage, le repèrage Rassurer et diminuer le nombre d'erreurs choix d'une métaphore d'interaction : unité de cohérence générale monde réel (manipulation directe) conversation (langage de commandes et LN) pour une même tâche : suite d'actions identiques stabilité de l'écran : charte graphique titres, messages, informations localisés au même endroit d'un écran à l'autre choix et prises de décisions se font de manière identique Objet/action terminologie constante q, logout,., quitter, fermer construction de phrases constantes

66 66 Homogéneité

67 67 Homogénéité/cohérence - entre logiciels

68 Signifiance des codes et dénominations codage : codes numériques unanimité contre eux, décomposables en unités significatives codes mnémoniques : plus faciles à retenir codes chromatiques à n'utiliser que pour renforcer un codage code iconique facile à mémoriser évocateur ? codes graphiques dénominations se conformer aux usages des opérateurs, de l'entreprise précision : afficher, voir, imprimer préférer les verbes aux noms verbaux pour les actions

69 69 Signifiance des codes et dénominations À ne pas faire

70 Compatibilité avec les supports papier avec les habitudes des utilisateurs avec l'organisation de l'entreprise avec d'autres logiciels => se conformer aux normes et aux standards (ISO, AFNOR) Ou alors innover Mais radicalement

71 71 Compatibilité - expérience de lutilisateur Métaphores usuelles loupe symbolise : fonction de recherche enveloppe signale : contacter le webmaster par courriel point dinterrogation : aide en ligne maison : lien vers la page d'accueil drapeau : langue de la page en cours ou possibilité de changer de langue Célèbres contre-exemples Éjecter la disquette (vieux Mac) Menu démarrer pour quitter Windows

72 Conclusion sur les critères En évaluation Art délicat de lévaluation heuristique Évaluateurs moyens : subtiles Permet détablir des rapports évaluation sur laspect utilisabilité En conception : Très utile de les avoir en tête lors de la conception faire des compromis entre différentes recommandations contradictoires en fonction de la tâche, de l'activité ou du public cible mais ne pas introduire de gadget ni multiplier les fonctions étudier de nombreuses interfaces d'un regard critique et piquer les bonnes idées regarder de nombreux guides et critères (Cf. le web)

73 73 Sitographie (1) Critères : Guides de style entation/Guidergoweb2005.pdf

74 74 Références & Bibliographie (1) Ce cours sinspire principalement : Du cours et des TP sur la conception participative de Wendy Mackay à la conférence IHM2002, Poitiers, Novembre 2002 Du cours de John Canny (Berkeley), Alain Giboin(Sophia-Antipolis), Jean-yves Antoine (Blois) Des tutoriels « Design and Rapid Evaluation of usable Web sites » organisé par Gene Lynch et «Scenario Based Usability Engineering » organisé par John M. Caroll et Mary B. Rosson à la conférence CHI2000 en avril 2000 à la Haye [Bastien et al. 2001] Christian Bastien, Dominique SCAPIN, évaluation des systèmes dinformation et critères ergonomiques, in Christophe KOLSKI (Ed.), Environnements évolués et évaluation de l'IHM, Interaction homme- machine pour les systèmes d'information Vol 2, Hermès, 2001, [Drouin et al. 2001] Annie Drouin, Annette Valentin, Jean Vanderdonckt, Les apports de l ergonomie à l analyse et à la conception des syst è mes d information, in Christophe KOLSKI, (ed.), Analyse et conception de l'IHM, Interaction homme-machine pour les syst è mes d'information Vol 1, chapitre 2, Herm è s, 2001, 250 p, ISBN , p

75 75 Références & Bibliographie (2) [ Hu et al 2001] Olivier Hu, Philippe Trigano, Stéphane Crozat, Une aide à lévaluation des logiciels multimédias de formation, in Elisabeth delozanne, Pierre Jacoboni (ed), Interaction Homme Machine pour la formation et lapprentissage humain, numéro spécial de la Revue Sciences et Techniques éducatives, vol 8-n°3-4/2001, Hermès [Nielsen 2000], Jakob Nielsen, Conception de sites Web, l'art de la simplicité, Campus Press France, 2000, 385 p., 249 F, ISBN [Bastien 1993] J. M. BASTIEN, D. SCAPIN, Ergonomic Criteria for the Evaluation of Human-Computer Interaction, rapport technique N°156 de l'INRIA, 81p., Juin 93 OFTA: Michael NAEL, L'évaluation des nouvelles interfaces homme-machine interactives, in Nouvelles Interfaces Homme-Machine, Observatoire Français des Techniques Avancées, Diffusion Lavoisier, Paris Décembre 1996, ISBN , p B. Senach, Évaluation ergonomique des interfaces Homme-Machine, une revue de la littérature, rapport de recherche N°1180 de l'INRIA, 70 p, 1990 ou Évaluation ergonomique des interfaces Homme-Machine, une revue de la littérature, in J.-C. Sperandio, L'ergonomie dans la conception des projets informatiques, Octares éditions, 1993, p

76 76 Orientation « professionnels » Design Patterns Brangier E., Barcenilla J., Concevoir un produit facile à utiliser : Adapter les technologies à lhomme, Editions dorganisation, (chapitre 5)

77 77 Retenir Les différentes méthodes dévaluation sans utilisateurs Jugement dexperts Inspection heuristique (critères) Revue de conception (scénarios) Au moins un jeu de critères ergonomiques Par exemple ceux de lINRIA Exercez-vous à étudier les interfaces que vous utilisez du point de vue utilisabilité et faites-vous des catalogues

78 78 Take home messages Méthodes dévaluation sans utilisateurs Indispensables en cours de conception évaluer les maquettes et prototypes Rapides, pas chères et efficaces Permettent déliminer les erreurs de conception de type « amateur » En projet Évaluation heuristique (inspection avec un jeu de critères) Revue de conception (scénarios) Méthodes dévaluation avec utilisateurs Indispensables pour les problèmes liés au domaine, à lactivité, aux usages


Télécharger ppt "1 Évaluation des logiciels interactifs (1) M2-EIAH/DU-TICE, Paris 6"

Présentations similaires


Annonces Google