Les Critères Ergonomiques

Décembre 2016

Cet article aborde les méthodes d'évaluation ergonomique s'appliquant aux caractéristiques de l'interface. Sont abordées les méthodes à base de modèles formels, le recourt à l'expert, les méthodes d'inspection, l'inspection cognitive, l'évaluation de la conformité à des recommandations, l'évaluation de la conformité à des dimensions ergonomiques (normes, principes, heuristiques) et les outils d'évaluation automatique.


Méthodes s'appliquant aux caractéristiques de l'interface


Cette catégorie de méthodes se distingue essentiellement de la précédente par l'absence d'interaction directe entre un utilisateur et un système. Dans ces méthodes, les utilisateurs tout comme leurs tâches sont représentés. Dans cette catégorie seront abordés : les modèles, méthodes et langages formels ; le recours à l'expert ; et les méthodes d'inspection.

Les méthodes à base de modèles formels


Les évaluations qui s'appuient sur des modèles théoriques et/ou formels (discutés au chapitre 3 de l'ouvrage de Kolski [4]) permettent de prédire la complexité d'un système (par exemple, par le nombre de règles de production du type "Pour faire-ceci Alors procéder-ainsi ") que doit connaître un utilisateur idéal pour accomplir une tâche avec le système qui lui est proposé et par conséquent les performances des utilisateurs. L'évaluation à partir de ces modèles constitue cependant une tâche très longue, très coûteuse et est difficile à mettre en œuvre par les non spécialistes.

Le recours à l'expert


L'évaluation experte est généralement définie comme une évaluation informelle où l'expert compare les performances, attributs et caractéristiques d'un système, que ce dernier soit présenté sous forme de spécifications, sous forme de maquettes ou de prototypes, aux recommandations ou normes existantes dans le but de détecter des défauts de conception.

Les méthodes d'inspection


Les méthodes d'inspection de l'utilisabilité (usability inspection methods) regroupent un ensemble d'approches faisant appel au jugement d'évaluateurs, que ces derniers soient experts ou non en utilisabilité. Bien que toutes ces méthodes aient des objectifs différents, elles visent généralement la détection des aspects des interfaces pouvant entraîner des difficultés d'utilisation ou alourdir le travail des utilisateurs. Les méthodes d'inspection se distinguent les unes des autres par la façon dont les jugements des évaluateurs sont dérivés et par les critères d'évaluation à la base de leurs jugements.

Parmi les méthodes d'inspection, celles qui nous intéressent plus particulièrement sont : l'inspection cognitive (Cognitive walkthrough) ; l'analyse de la conformité à un ensemble de recommandations (guideline reviews) ; et l'analyse de la conformité à des normes (standards inspection), principes, dimensions, heuristiques. Cet intérêt tient en partie au fait que ces dernières sont bien documentées et qu'elles ont fait l'objet de tests et de comparaisons.

L'inspection cognitive


L'inspection cognitive (Cognitive walkthrough) est une méthode d'inspection qui consiste à évaluer la facilité d'apprentissage, par l'exploration d'un système interactif. Cette évaluation requiert une description détaillée de l'interface (idéalement sous forme de maquette papier, logiciel ou encore de prototype), une description de la tâche à réaliser, une description des caractéristiques des utilisateurs potentiels et du contexte d'utilisation, et une description précise de la séquence des actions que l'utilisateur doit effectuer pour accomplir les tâches décrites.
Au cours de l'inspection, les évaluateurs passent en revue chacune des actions que l'utilisateur doit effectuer. Pour chacune de ces actions, ils doivent s'interroger sur ce que l'utilisateur cible sera tenté de faire, en se basant sur les objectifs d'utilisation et les connaissances de ces derniers, et doivent comparer ces actions hypothétiques aux actions que permet le système à cette étape de l'interaction.
Si l'interface est bien conçue, les actions permises ou proposées par le système devraient correspondre à celles auxquelles l'utilisateur est en droit de s'attendre. En d'autres termes l'inspection cognitive cherche à identifier les choix de conception qui peuvent entraver l'apprentissage par l'exploration.

L'évaluation de la conformité à des recommandations


L'évaluation de la conformité à des recommandations (guideline reviews) consiste à juger la conformité des éléments de l'interface aux recommandations (ergonomiques ou de style) contenues dans divers types de recueils. On trouve ainsi des guides de style, c'est-à-dire des recommandations que proposent des constructeurs, des développeurs, ou des consortiums, et des recueils de recommandations. Les recommandations de style permettent généralement de distinguer les interfaces des logiciels développés pour des environnements différents (par exemple pour les environnements Unix, Windows et Macintosh). Le « Macintosh Human Interface Guidelines » d'Apple, ou encore le « Window interface : An Application Design Guide » de Microsoft sont des exemples de guides de style.
Les recommandations sont généralement présentées dans des recueils (voir par exemple Scapin [11], Smith [12] et Vanderdonckt [13]) ou des guides généraux (voir par exemple Mayhew [9]). Les recueils de recommandations constituent probablement la source la plus importante des guides de conception.

L'évaluation de la conformité à des dimensions ergonomiques (normes, principes, heuristiques)


Parallèlement aux recueils de recommandations, les connaissances ergonomiques ont été rendues disponibles sous différentes formes. On trouve, par exemple, des guides de conception, des principes, des heuristiques et des normes.

Les nombreux guides de conception disponibles répondent à des objectifs divers. Lorsque l'on étudie ces guides, on constate clairement une absence d'uniformité dans la présentation des recommandations et un nombre très variable de recommandations présentées. Ces dernières sont parfois organisées par critères, principes ou thèmes de plus hauts niveaux qui tentent de les organiser et de les synthétiser (par exemple l'homogénéité, la compatibilité stimulus-réponse, la facilité d'apprentissage, etc.), ou parfois encore par thèmes issus d'un découpage de l'interface (par exemple langage de commande, sélection de menus, entrée de données, affichage de données, etc.).
Si certains guides abordent plus spécifiquement la conception des interfaces utilisateurs, d'autres traitent principalement de l'évaluation. Ces derniers peuvent alors être plus ou moins complexes et plus ou moins détaillés. On trouve aussi des chapitres de livre, succincts et assez généraux (tel Marshall, Nelson & Gardiner [8]) ou encore des guides plus détaillés comportant des check-lists (par exemple Clegg & al. [1]).
La distinction entre les diverses dimensions, du moins entre principes, normes et heuristiques est parfois ténue. Dans certains cas, la distinction provient de leur caractère officiel (c'est le cas notamment des normes) ; dans d'autres, elle peut être liée à la précision des définitions voire au nombre d'exemples de recommandations accompagnant ces dimensions. Les normes de conception et d'évaluation (design standards) présentent habituellement une série d'énoncés généraux sur la conception des systèmes interactifs. Ce qui distingue ces documents d'autres documents présentant aussi des énoncés généraux, comme les principes, est leur caractère officiel et leur origine ; ces documents sont issus d'organismes de normalisation. On trouve des normes nationales (par exemple DIN pour l'Allemagne, AFNOR pour la France) et des normes internationales (par exemple ISO) (voir à ce propos l'article sur les normes).

Les principes sont des énoncés généraux qui s'appuient sur des données issues de recherches sur la façon avec laquelle les gens apprennent et travaillent. Ainsi, le principe « être cohérent dans le choix des mots, formats et procédures  » est issu des recherches qui ont montré que les gens apprenaient plus rapidement et transféraient mieux leurs acquis lorsque les informations qu'on leur présentait et les procédures qu'ils devaient suivre étaient cohérentes. Les principes constituent donc des objectifs à atteindre, sans que soient précisées les façons de les satisfaire.

Les outils d'évaluation automatique


Divers outils logiciels d'aide à l'évaluation ont déjà été proposés. Certains constituent des versions logicielles de documents papier, d'autres sont des outils d'accompagnement de l'évaluation, c'est-à-dire qu'ils aident l'évaluateur à structurer et à organiser l'évaluation, finalement d'autres permettent de faire de l'évaluation automatique. C'est de cette dernière catégorie dont il sera question ici. Il s'agit ici de décrire les outils qui permettent de récupérer des fichiers de description de l'interface sur lesquels sont appliquées des analyses permettant l'évaluation de la conformité à certaines recommandations ergonomiques, principes, critères ou recommandations de style (par exemple ERGOVAL, KRI/AG, CHIMES, SYNOP, l'outil de Mahajan et Shneiderman, etc.). Il ne s'agit donc pas ici des outils de capture d'événements utilisateurs comme ceux présentés dans la première partie de cet article.

ERGOVAL


ERGOVAL (Farenc [2]) est un système d'évaluation à base de connaissances. Les règles ergonomiques intégrées à la base de connaissance sont relatives aux interfaces graphiques et ne nécessitent pas le recours à des connaissances approfondies sur le travail. Ces règles sont issues de diverses compilations de recommandations et sont classifiées dans des catégories qui s'apparentent aux Critères Ergonomiques (que nous verrons dans la 3ème partie de cet article). En plus des règles ergonomiques, ERGOVAL comporte une décomposition structurelle des objets de l'interface, établie à partir de la norme CUA (Common User Access). Cette typologie des objets permet entre autres de rattacher des ensembles de règles à chaque type d'objet. ERGOVAL fournit, à la fin du diagnostic, le texte justificatif de chacune des règles non respectées.

KRI/AG


KRI/AG (Löwgren & Nordqvist [6]) est un système expert connecté à un UIMS (TeleUse, sous environnement X-Window) qui évalue les fichiers générés par ce dernier. Ce système s'appuie sur une base d'environ cent recommandations ergonomiques et de style (Motif) portant sur les aspects syntaxiques et de présentation de l'interface.

CHIMES


CHIMES (Jiang & al. [3]) est un système capable d'évaluer la conformité de l'interface aux recommandations de style OSF/Motif et aux recommandations relatives à l'usage de la couleur. Lors de l'évaluation, CHIMES fait des propositions d'amélioration.

SYNOP


SYNOP (Kolski & Millot [5]) est un système expert d'évaluation automatique de la présentation statique de synoptiques industriels à partir de recommandations relatives à la présentation des informations à l'écran. L'évaluation porte sur une description des pages-écrans créées à l'aide du logiciel graphique IMAGIN. Ce système permet aussi d'effectuer des modifications automatiques et lorsque ces dernières s'avèrent impossibles, des recommandations sont proposées. Ce système permettrait donc de détecter des erreurs liées à certaines dimensions ergonomiques (par exemple Groupement/Distinction entre items par la localisation et le format, Lisibilité, Densité informationnelle, et Cohérence).

Mahajan et Shneiderman


Mahajan et Shneiderman [7] ont développé un outil d'évaluation de la cohérence de l'interface. L'outil convertit l'interface créée à l'aide de Visual Basic sous forme d'un fichier canonique de description d'objets. L'outil permet ensuite d'évaluer la cohérence de l'interface. Plus précisément, l'outil évalue : le style et la taille des polices de caractères utilisées dans les boîtes de dialogue, afin d'y détecter des incohérences ; les couleurs utilisées pour les fonds d'écran ; l'interface, afin d'y détecter l'utilisation incohérente des majuscules dans les mots apparaissant dans les boutons, labels, titres, menus, etc., et ce, dans toutes les boîtes de dialogue ; la cohérence des caractéristiques des boutons de commande, c'est-à-dire leurs titres, l'emploi des majuscules, leur localisation relative, leurs tailles (hauteur, largeur) ; et l'orthographe des mots utilisés dans tous les objets, de même qu'une évaluation des synonymes.

Conclusion


Pour l'instant, les aspects de la Qualité Ergonomique que permettent d'évaluer ces outils sont relativement restreints, du moins dans l'état actuel. Les outils d'aide à l'évaluation doivent donc être considérés comme des techniques complémentaires à l'inspection de la Qualité Ergonomique des logiciels interactifs et aux tests d'utilisation.

Tous ces outils, bien qu'ils ne fassent aucunement référence aux tâches et aux caractéristiques des utilisateurs n'en demeurent pas moins utiles. Rappelons, par exemple, que la seule évaluation d'une interface du point de vue de la cohérence, et à plus forte raison si l'interface est complexe, est une tâche extrêmement difficile à réaliser. Cette évaluation nécessite que la valeur des paramètres d'un objet ou d'un ensemble d'objets (exemple, le positionnement relatif des boutons d'annulation et de validation d'une boîte de dialogue) soit cohérente dans toute l'interface (dans notre exemple, le positionnement relatif des boutons de commande devra être le même dans toutes les boîtes de dialogue à moins de justifications contraires). De plus, pour que cette évaluation soit exhaustive, l'évaluateur doit avoir une bonne représentation du dialogue, ce qui n'est pas non plus une chose simple à obtenir. Ainsi tout outil facilitant ce type d'évaluation permet à l'évaluateur de consacrer plus de temps aux aspects liés aux tâches. Ces divers outils montrent que certaines dimensions ergonomiques, certaines recommandations ou règles se prêtent assez bien à une évaluation automatique. Toutefois ces outils devront, pour permettre une évaluation sur des aspects plus sémantiques, s'articuler à des outils de description de tâches et à des outils de description de l'interface. On peut déjà imaginer l'ampleur de la tâche. En effet, comment par exemple, à partir d'une description de la tâche, peut-on déterminer automatiquement que le dialogue correspond à sa structure ? Pour ce faire il faudra disposer d'une bonne description du dialogue de l'interface et articuler cette dernière à la description de la tâche.

A voir également :

Ce document intitulé «  Les Critères Ergonomiques  » issu de CommentCaMarche (www.commentcamarche.net) est mis à disposition sous les termes de la licence Creative Commons. Vous pouvez copier, modifier des copies de cette page, dans les conditions fixées par la licence, tant que cette note apparaît clairement.