2.4. Navigation gestuelle

Parmi les usages identifiés, la navigation dans les données est une activité importante et complexe.
C’est une part importante de l’utilisation de l’ordinateur. C’est le bureau, et sa métaphore bientôt dépassée.

Histoire

Les données sont l’essence de l’informatique. Elles nécessitent une organisation et une gestion. La première innovation fut l’affichage textuel des données. Le texte était imprimé, puis l’écran est apparu vers les années soixante-dix. L’écran est dynamique, il permet d’afficher plus de d’informations. Mais surtout, cette interface avec la machine permet de lui envoyer des ordres (commandes). Et de recevoir les réponses à l’écran, en temps-réel. C’est une véritable révolution dans l’interaction Homme-machine.

Le second bouleversement vient en 1980 avec la métaphore du bureau, imaginée par la compagnie Xerox. C’est une interface graphique qui permet à l’utilisateur qui n’est pas informaticien d’interagir plus confortablement avec l’ordinateur. Pour cela, elle imite l’apparence et la logique d’un bureau: outils, documents divers, dossiers, courriers, etc. Le système se présente comme une surface en deux dimensions. Des icônes représentent les objets numériques manipulables. On interagit avec l’interface par le biais d’un curseur, piloté par la souris L’activation d’un objet déploie une fenêtre de taille variable. Une fenêtre est alors un nouveau contexte d’interaction.

Ce type d’interface est assez simple à employer du moment que l’on peut identifier les icônes. Elle nécessite d’effectuer beaucoup de déplacements du curseur. Cette emploi permanent de la souris est assez intense mais il a l’avantage de ne pas gêner l’affichage.

Évolution

Les interfaces tactiles récentes ont apporté une autre approche de l’interaction. La disparition de la souris modifie tout le système. La mécanique générale est repensée, et se dispense alors du bureau. L’interaction gestuelle va plus loin. Le geste augmente encore la possibilité d’agir par la main avec l’interface, sans avoir à employer l’intermédiaire de boutons. Le geste permet par exemple de faire défiler une liste, ou une page de façon plus agréable et plus rapide. Ce simple gain est important. Mais l’interaction tactile implique que la (ou les) main(s) de l’utilisateur gêne(nt) l’affichage.

Geste déporté

En proposant une interaction gestuelle et tactile là où les mains reposent plutôt que sur l’écran, on gagne en ergonomie et en fonctionnalité. Deux possibilités s’offrent alors à nous. Le regard reste sur l’écran principal et le geste est effectué par les mains. Ou bien, le geste focalise le regard et l’utilisateur manipule les éléments sur l’interface de saisie (la tablette). La meilleure solution est certainement entre les deux, en proposant une interaction gestuelle qui laisse l’action principale sur l’écran face à nous. Et simultanément ajoute une aide ou un complément dans l’affichage au niveau des mains.

Scénario

Le prolongement de l’écran
Le périphérique de saisie, physique ou virtuel, doit accompagner et faciliter l’interaction à l’écran. Répéter et ajouter des informations sur le contexte permet de simplifier l’usage en renseignant l’utilisateur sur ses actions et ses possibilités. Dans les interfaces informatiques actuelles, employant la métaphore du bureau, le geste agît sur l’élément focalisé. Le focus est déterminé par la sélection en cours ou la position du curseur. Cela est très efficace dans ce type d’interface, mais les gestes sont alors moins fluides que dans une interface tactile, pour laquelle «ce que je vois est ce que je touche».

Interaction dédiée
L’autre approche consisterait à proposer une interface tactile qui prenne le relais de l’écran. Le regard est vers les mains. L’interface de saisie affiche un environnement de navigation tactile. L’interaction est directe et s’en trouve améliorer pour ce contexte précis. Cette interface de navigation qui communique avec l’ordinateur pourrait être relayée par l’écran principal. À l’inverse du scénario de prolongement de l’écran, c’est l’écran qui prolonge l’interface tactile permettant de naviguer. L’écran peut alors afficher une vision d’ensemble, des informations, un aperçu, etc.

Les deux propositions ne sont pas compatibles, car le résultat serait incohérent. L’utilisateur doit savoir où poser son regard, et être rassurer dans ses actions. Le déplacement répété du lieu privilégié d’interaction est fortement déconseillé. Ce serait contraire à la construction de l’ergonomie des interfaces actuelles.

Observations

L’écran principal concentre l’attention de l’utilisateur. Autant que possible le geste est naturel et s’exécute sans se concentrer. L’interaction est tourné vers les objets numériques et pas vers les moyens de les atteindre. Les gestes et actions doivent être simples et évidents. Mais l’emploi de certaines fonctions est toujours complexe. Dans le cas de la navigation, la souris est l’outil principal. Le clavier est vraiment peu employé pour ses fonctions de raccourci. Tout juste sert-il à la manipulation, à nommer les éléments et à la recherche.

L’interaction gestuelle est surement le plus grand atout du tactile dans ce contexte. Les gestes permettent de fluidifier la navigation. L’interface tactile doit donc tirer parti de cet avantage. Et apporter une aide discrète par l’affichage d’aperçu, d’informations et de fonctions principales.

La navigation dans un ordinateur pourrait être améliorée, et rendue plus agile grâce à l'interaction tactile. Cependant, c'est certainement un autre projet qui meriterait sa propre étude et des expérimentations plus poussées.