Johan Petit

Le démarrage d’un processus de test AB n’est pas facile. Et une fois lancé, vous vous rendez compte que la partie la plus difficile est de suivre. Alors, comment commencer et suivre? Nous vous disons tout.

Pour commencer, prenons la définition d’un test A / B:

Un test A / B vous permet de comparer plusieurs variantes d’un produit (site web / application) pour identifier les meilleures performances. Ces variations sont présentées de manière aléatoire aux utilisateurs.

La pratique des tests A / B peut être divisée en deux méthodes: le test A / B et le test multivarié. Il est essentiel de comprendre les nuances:

  • Le test A / B : Ce test présente aux utilisateurs deux variantes de leurs pages dans la même URL. Si vous avez plus de deux variantes, nous parlerons de l’A / B / C / D / …
  • Le test multivarié : Ce test mesure l’impact de plusieurs modifications sur une page Web. Par exemple, vous pouvez rejeter un bouton visuel et un bouton d’action: le test identifiera pour vous la meilleure combinaison!

La motivation principale est d’optimiser le taux de conversion de certains éléments clés de votre site ou de son application (on parlera parfois de CRO “Optimisation du taux de conversion”).

Les tests AB éliminent tous les éléments externes et mesurent donc le gain réel lié au changement. Si comme moi, vous avez déjà entendu “Oui, les conversions ont légèrement diminué après la refonte, mais le temps était très agréable ce week-end, donc on peut difficilement comparer …”, Vous voyez exactement le scénario que nous voulons éliminer!

Au-delà, les tests A / B vous permettront de prendre des décisions rationnelles et de mettre de côté le ressenti. Cela facilite l’arbitrage entre différentes options et, par conséquent, dispose d’un outil de décision super objectif et totalement objectif.

Vous devrez vous assurer que vous disposez des compétences nécessaires. Pour se lancer dans une approche de test A / B, les compétences croisées Concepteur UX, pour vous permettre de faire des propositions d’optimisation pertinentes et Analyste de données, d’estimer le potentiel des tests et surtout de pouvoir les analyser en retour.

De nombreuses solutions sont disponibles sur le marché. Pour ma part, je garde les solutions suivantes:

  • Google Optimiser : Vous trouverez au premier niveau ce dont vous avez besoin pour commencer gratuitement. Au fur et à mesure que vous progressez, vous devez déverrouiller les fonctionnalités payantes.
  • AB Tasty et Kameleoon : Ces solutions sont principalement destinées aux grands comptes. Ce sont d’excellentes solutions packagées, capables d’administrer les tests AB et la personnalisation. Avec eux, vous disposez d’un lien direct vers l’éditeur, qui fournit un support efficace.

Vous êtes équipé, prêt à démarrer: vous pouvez maintenant lancer votre premier test! Je vous suggère de suivre ces quelques étapes pour structurer votre approche.

Cette première phase vous permettra de trouver et Quoi test:

  • Lors de la consultation des sources de données quantitatives (données de navigation, historique des commandes, etc.), vous comprendrez rapidement les pages à fort potentiel. C’est lui .
  • En utilisant méthodes qualitatives (test utilisateur, commentaires client ou conseillers commerciaux), puis définissez l’élément à tester sur votre page clé. C’est lui Quoi.

Après avoir analysé vos données, vous avez maintenant tous les éléments en votre possession pour identifier un test à fort potentiel. Vous pouvez formuler une hypothèse. Écrivez-le sur le formulaire:

Si je change [variable], alors je dois [résultat] parce que [raisonnement].

  • la variable vous devez représenter l’élément que vous souhaitez modifier et le résulter le gain attendu lors de la modification de cette variable. Normalement, il déduit ces données de la première phase d’analyse.
  • la raisonnement Il est basé sur votre expérience en affaires. C’est là que vous mobiliserez vos compétences en UX Design et votre connaissance approfondie de votre produit.

Lors de la configuration de votre test, vous prendrez en compte 3 variables pour imaginer comment l’implémenter:

  • Contenu: Voilà ce que vous dites. A ce niveau, vous agissez sur des étiquettes ou des textes.
  • Conception: Voilà à quoi ça ressemble. Ici, vous jouerez sur l’esthétique des éléments. Par exemple, vous pouvez essayer d’autres couleurs pour un bouton d’action spécifique.
  • Ergonomie / mise en œuvre: il s’agit de la façon dont une fonctionnalité est implémentée. La marge de manœuvre est plus grande ici. Il examinera complètement la façon dont une fonctionnalité est présentée.

Un bon test est souvent un mélange des 3! N’hésitez donc pas à tester des hypothèses fortes pour les résultats.

💡 tromper : La plupart des outils de test AB offrent une fonction de prévisualisation. Utilisez-le pour tester vos variantes avec certains utilisateurs avant de commencer votre test.

Vous avez lancé votre test, vous êtes en cours: avant d’analyser les résultats, vous devez d’abord savoir quand l’arrêter!

La taille de l’échantillon (le nombre de visiteurs exposés à votre test) est essentielle pour atteindre un niveau de confiance suffisant dans les résultats. Nous parlerons de sens. Un test significatif à 95% signifie qu’il y a 5% de chances que le résultat soit dû au hasard. Plus la taille de l’échantillon augmente, plus votre test sera significatif ! En général, on suppose qu’au moins quelques milliers de visiteurs sont nécessaires pour un test.

Cependant, la taille de l’échantillon n’est pas un critère suffisant pour arrêter votre test. Vous devriez également considérer:

  • Nombre minimum de conversions : à travers votre hypothèse, suivez un indicateur de conversion. Ce nombre de conversions doit être suffisant (quelques centaines au minimum).
  • La durée du test : Votre test doit prendre en compte le cycle de votre produit. Nous recommandons généralement une durée minimum de 2 semaines.

C’est ça? Avez-vous arrêté votre test? Place au verdict:

  • 😄 Test positif : Bravo, vous pouvez généraliser la variante gagnante!
  • 🤔 Test neutre: Malheureusement, les leçons de son test ne se dégagent pas. Vous pouvez maintenant travailler sur une nouvelle proposition.
  • 😦 Test négatif: Vous devrez comprendre pourquoi cela n’a pas fonctionné et identifier le point de votre raisonnement qui a été contrecarré par ce résultat.

Vous avez lancé votre premier test. Génial Mais vous n’êtes qu’au début du tunnel. Il vous faudra encore structurer le focus sur vos équipes pour pouvoir suivre le rythme dans le temps et mettre en place une véritable démarche d’amélioration continue.

Courbe d’apprentissage des tests A / B (nombre de tests lancés dans le temps)

Après votre premier test, vous vous rendrez compte qu’il est très facile de commencer un test AB. Très rapidement, il lancera de nombreux autres (un peu trop) tests simples … et il se rendra compte qu’il a peu de résultats positifs. Si cela peut vous décourager, ces tests sont principalement une excellente occasion de progresser dans votre pratique de test AB. Ils vous permettront de:

  • Mieux estimer la charge associée à la configuration d’un test
  • Mieux évaluer le potentiel de chaque test.
  • Accroître l’efficacité dans l’analyse des résultats.

Au début, n’hésitez pas à fixer des objectifs de quantité plutôt que de qualité pour gagner en efficacité. Naturellement, les tests de qualité viendront plus tard en faisant plus attention aux phases d’analyse et de formulation de l’hypothèse. Une fois la dynamique commencée, vous progresserez continuellement dans la pratique.

Ensuite, vous devez structurer votre feuille de route de test AB. L’idée est que vous avez toujours un test à exécuter quand il y en a un en cours.

Cette feuille de route devrait avoir la priorité. Et pour cela, utilisez les indicateurs “PIF”. Ils vous permettront de placer des tests rapides pour configurer et ajouter de la valeur à votre entreprise en haut de la liste.

  • potentiel : Quelle marge d’amélioration ai-je sur cette page?
  • importance : Combien de trafic cette page m’apporte-t-elle?
  • installation : Ce test est-il facile à configurer?

La feuille de route en place, reste à garder les équipes motivées sur le long terme. Pour ce faire, vous pouvez gamifier votre pratique de test A / B!

  • 🏆 “Le plus gros profit du mois “: Chaque mois, célébrez le test qui a le mieux fonctionné dans l’équipe. C’est l’occasion de diffuser les pratiques qui fonctionnent très bien.
  • 🕵️‍♂️ “Le champion de la prédiction “: Dans chaque test, chaque membre de l’équipe prédit le résultat du test. Nous maintenons un classement à mesure que nous progressons et célébrons régulièrement le «champion de la prédiction». Cela vous permet de prendre du recul avant de commencer un test: si toute l’équipe voit le bloc de test, vous pouvez toujours vérifier votre copie!

Comme vous pouvez le voir, le test A / B est une pratique clé pour améliorer votre produit numérique. En structurant votre approche, vous maximiserez vos chances d’obtenir de bons résultats. Mais la partie la plus difficile, en fin de compte, sera d’être efficace au fil du temps. Ensuite, c’est à vous de conduire vos équipes à suivre.

Là, (presque) vous savez tout. Ça dépend de vous! 🚀

Chez Bewizyu, une agence numérique basée à Lyon et Nantes, nous sommes spécialisés dans la création d’interfaces numériques personnalisées. Rejoignez-nous sur LinkedIn ou Medium!

Promotion chez notre partenaire