Tout d’abord rendons à César ce qui appartient à César : la formule n’est pas de moi mais de Patrick Oualid, un de mes anciens N+1. Il l’avait opposée à l’époque à une de mes analyses de CTR (Click-through rate / Taux de Clic). Son idée était la suivante : un taux de clic faible sur un élément ne veut pas dire qu’il est inutile au sein de la page ; même une page de transformation.
Il avait raison, le CTR, comme tout ratio, est une valeur relative ; un taux de clics n’est jamais bon ou mauvais, il est meilleur ou moins bon. De plus, il n'est pas suffisant pour analyser une page : une page n’est pas composée que d’éléments cliquables.
Nous avons maintenant à notre disposition des outils nous permettant d’analyser assez finement les comportements de clics et les représenter sous une forme facile à appréhender. Les heat maps, qu’elles soient générées par crazyegg ou par l’analyser d’AT internet sont de bons «outils à CoDir» en plus de représenter les zones de clics (je reviendrais sur ce point dans un post ultérieur) et l’eye tracking permet de mesurer l’attractivité des éléments constitutifs d’une page, ainsi que les schémas de déplacements visuels grâce à des sessions de tests qualitatifs.
A ce sujet, je voudrais vous présenter aujourd’hui feng-gui.com. C’est un outil jusque là expérimental, mais commercialisé depuis peu, qui permet de simuler et représenter le comportement normal d’un être humain exposé à un visuel, que ce soit une image, une page web, un email...
Concrètement, un ensemble d’algorithmes traite une image uploadée (créa, screenshot de page web…) et renvoie une heat map telle qu’elle aurait été générée par une étude d’eyetracking traditionnel ou une étude de zone de clics.
Fonctionnement :
Fen-gui va analyser les couleurs, les orientations, les densités et contrastes, les positions, les poids, les courbes, etc. de votre création et simuler la réaction normale d’un être humain pendant les 5 premières secondes d’expositions au visuel.
Avantages :
Bien évidement la rapidité et le prix qui en font un intéressant outil de «pré-test» : avant de se lancer dans de couteuses campagnes d’analyses en eye tracking (échantillonnage, recrutement, sessions, analyses...) ou de se lancer dans de l’A/B testing en prod, vous pouvez effectuer un premier filtre à peu de frais. Il suffit d’uploader une image et de valider, puis d'attendre quelques secondes le résultat que vous pouvez ensuite exporter.
Depuis peu la solution est passée payante mais reste encore très abordable (+/- 1$ par test).
L’autre intérêt est de pouvoir travailler seul : à partir de la réception de la maquette à valider, pas besoin de développeur pour de l’A/B testing, pas besoin de réunir de comité de pilotage ; vous soumettez la créa à l’outil et vous récupérez immédiatement un résultat exploitable.
Limites :
Jusqu’à présent les limites de la solution étaient surtout techniques : en dehors des critères d’analyse cités plus haut, l’outil de faisait pas la distinction entre deux textes :
LOREM IPSUM ou IPHONE OFFERT représentaient pour lui sensiblement la même chose.
Il ne faisait pas non plus la différence entre un visage en dessin ou en photo…
Maintenant que la solution est devenue payante, elle intègre la reconnaissance faciale et bientôt la reconnaissance de texte; c’est une belle avancée mais qu’en est-il des langues autres que l’anglais ? Pour les visages, arrivera-t-elle à faire le distinguo entre homme et femme, ou encore entre une femme lambda et Natalie Portman (ou encore entre George Clooney et moi) ?
Il reste donc bien entendu des optimisations possibles, mais cette solution permet à des coûts très minimes d’effectuer des pré-tests de visuels et d’ajouter un peu de démarche scientifique au «gros bon sens ».
Un petit exemple de résultat :



Bonjour Benjamin,
RépondreSupprimerMerci pour ce bel exposé. Je ne peux qu’abonder dans ton sens. J’utilise régulièrement feng-gui pour tester mes e-mailings, d’abord parce que la solution a un nom rigolo, mais surtout parce qu’elle me permet de tester facilement, rapidement et à moindre coût ces créas qui, par leur nature éphémère, ne peuvent justifier des analyses lourdes comme l’eye-tracking. Confronter les résultats de feng-gui aux clics obtenus m’a permis d’améliorer les performances de mes campagnes. C’est un outil que je recommande.
Toutefois, j’ajouterais à la règle « ce n’est pas parce que ce n’est pas cliqué que ce n’est pas vu », le corolaire suivant : ce n’est pas parce que c’est vu que c’est regardé. En effet, les internautes réagissent différemment en fonction de leurs centres d’intérêts et de leurs habitudes de navigation. C’est là la limite de feng-gui : il ne tient pas compte de l’attractivité cognitive des éléments.
Un ipod, un petit chat, des escarpins, une paire de boules de pétanque ou une NES ne feront pas réagir les gens de la même manière, mais plus que cela, différentes populations réagiront différemment. D’où, je pense, l’importance des focus groups qui permettent de mettre en perspective l’eye-tracking et les heat maps. Certains testeurs des focus groups vous assassineront en disant éviter l’élément capital de votre page web (le gros bouton rouge bien au milieu de ladite page) parce que : « oh ben non ça c’est une pub »… Vu, mais pas regardé. Le cerveau humain occulte volontairement certains éléments scannés et identifiés comme inintéressants, en se fondant sur l’expérience et les affects de l’individu.
Vu, regardé, cliqué… il est difficile et dispendieux de contrôler tous les éléments qui mènent à la transformation. Si feng-gui se rend capable à l’avenir de simuler les comportements et les populations en faisant la différence entre Natalie Portman jouant avec un petit chat et Benjamin B jouant à la pétanque, la solution deviendra très puissante (et probablement plus chère aussi). Il y a une grosse marge d’évolution et aussi de nombreuses étapes avant d’arriver à ce niveau. Affaire à suivre.
Le concept de ce blog est fort intéressant. J’attends la suite avec impatience. Bonne continuation.