Vous avez une étude utilisateur à venir, mais vous ne savez pas quel type de test effectuer entre un test A/B et un test multivarié ? Pour vous aider, nous avons créé un guide vous permettant de choisir le meilleur type de test en fonction de vos besoins.
Avant de commencer, définissons les termes clés utilisés dans cet article.
Le test A/B compare deux variantes d’un élément unique au sein d’une conception unique. Les variantes peuvent être la couleur d’un bouton, l’étiquette sur un bouton ou la position d’un bouton.
Pour que le test AB soit réussi, il est nécessaire que les différences proposées soient des nuances apportées à un seul et unique élément de l’ensemble de la conception. Si vous choisissez d’examiner trois variantes ou plus, le test reste toujours un test A/B, mais nous l’appellerons désormais un test « A/B/n », où n correspond au nombre de variantes.
Si nous examinons deux aspects ou plus, d’un élément unique, comme la couleur et l’étiquette d’un bouton. Ou bien si nous examinons deux éléments, comme des variantes de bouton et des variantes de contenu textuel, alors le test est considéré comme un test multivarié, ou MTV, plutôt que A/B/n.
Pour les tests A/B, les modifications sont apportées à un seul et unique aspect d’un élément. Par exemple, l’étiquette d’un bouton peut être modifiée ou sa couleur peut changer. Mais jamais les deux lors d’un même test.
Ainsi, si la même étude teste à la fois l’étiquette et la couleur, alors il s’agit d’un test MTV. Les tests MTV peuvent être très efficaces lorsqu’ils examinent plusieurs éléments de conception, mais ils peuvent également devenir complexes, tant au niveau de la conception de l’étude que de l’analyse.
Les tests A/B et les tests multivariés se concentrent sur des métriques comportementales plutôt que sur des métriques attitudinales (bien que les deux puissent être collectées). Aucun de ces types de tests ne peut examiner des conceptions entièrement différentes (comme deux conceptions différentes de sites Internet), mais seulement des variantes spécifiques des éléments.
Il est possible de tester différentes conceptions générales à l’aide de méthodologies axées sur les attitudes des utilisateurs, comme les méthodes et les outils d'utilisabilité par exemple.
Ainsi, si vous souhaitez tester un design ou une conception de votre interface et non plus des éléments, nous vous conseillons d’utiliser des méthodologies UX, comme les tests modérés, les click-tests et les questionnaires. Ces tests vous permettront d’en savoir plus sur ce que les utilisateurs apprécient et n’apprécient pas sur vos interfaces.
Une fois ces tests réalisés, vous pouvez vous concentrer sur des nuances spécifiques de votre conception en testant des éléments précis à l’aide de tests A/B ou MTV.
Il convient également de ne pas oublier ce que les tests A/B et MTV ne vous diront pas :
L’image ci-dessous représente un exemple de test A/B/n, où n=3.
Le seul changement est la couleur du CTA « Demander une démo ». Plus de couleurs = plus de « n » :
Regardons maintenant un exemple de test MTV, où n = 6.
Notez que la modification supplémentaire est la modification de l’appel à l’action « Demander une démo » par « Nous contacter ». Remarquez également que le n a doublé.
Une modification supplémentaire, comme une police de caractères différente ou encore un ajout d’animation, signifie que les variantes augmentent de façon logarithmique, votre « n » explose.
Par conséquent, le nombre de participants nécessaires pour obtenir un résultat valable devient beaucoup plus important. Il faut en effet un nombre de participants raisonnable pour chaque variante, ce qui signifie que l’effort de recrutement peut rapidement devenir impressionnant et qu’il pourrait falloir beaucoup de temps pour collecter les données.
C’est pour cette raison que nous vous conseillons de travailler graduellement, et de ne pas multiplier les variables.
Une méthodologie A/B peut vous indiquer lequel des deux éléments vous conduit à de meilleurs taux de conversion. Toutefois, beaucoup de choses sont perdues, car vous ne savez pas pourquoi un élément est meilleur que l’autre.
Vous pouvez atteindre davantage de conversions sur le court terme, mais en même temps diminuer la satisfaction de vos utilisateurs en abandonnant des caractéristiques ou des éléments positifs qui existaient dans la conception perdante (vous pouvez également avoir des éléments négatifs dans une conception gagnante dont vous ne connaissez pas l’existence).
Utilisez les tests A/B lorsque vous souhaitez savoir, au niveau statistique, de quelle manière une nuance dans votre conception influence le comportement des utilisateurs.
Vous pouvez ajouter dans le test des métriques attitudinales concernant les préférences des utilisateurs, ce qu’ils aiment et n’aiment pas, et autres avis, tout en vous concentrant sur la métrique du comportement utilisateur. C’est la magie de l’hypothèse.
La conversion doit être définie dans votre hypothèse. Concevez votre test afin qu’il se concentre sur la conversion, qui peut être l’achat d'un produit, l’inscription à une newsletter, le téléchargement d’un document, l’inscription à une conférence ou tout autre engagement pris par les utilisateurs.
Bien sûr, un simple clic est rarement une conversion, mais plutôt un parcours vers une conversion éventuelle, qui peut se situer plusieurs étapes en amont dans le processus utilisateur. Configurez donc votre test afin de mesurer à la fois les clics et la conversion réelle.
Les étapes de base d’un test A/B-MTV sont simples.
Il est dorénavant temps de créer votre test. Pour cela il est nécessaire de réaliser plusieurs choses :
Lorsque vous publiez les résultats, faites preuve de clarté, et justifiez tout ce que vous dites à l’aide de vos données.
N’ayez pas peur de dire que vous ne savez pas. Vous pouvez toujours faire plus de tests.
Vous pouvez également utiliser certaines statistiques pour déterminer la confiance que vous avez dans votre augmentation. Vous pouvez avoir une « confiance à 90 % dans une augmentation de 14 % de la conversion avec une erreur estimée à +/- 5 % ». Cela signifie que vous pouvez raisonnablement vous attendre à une amélioration de 9 à 19 % de votre taux de conversion grâce à votre nouvelle conception.
Il est important de partager ce que vous avez appris à partir de votre étude, même si c’est un « échec », partagez avec votre équipe et votre organisation au sens large. N’oubliez pas, ce n’est jamais un échec, c’est toujours un apprentissage.
Votre rapport d’étude doit décrire la réalité de vos résultats, bons ou mauvais. Souvent, la recherche utilisateur est par nature déductive : vous créez une bibliothèque de ce qui ne fonctionne pas, plutôt que de ce qui fonctionne.
Jetons maintenant un coup d’œil sur une étude récente que nous avons menée via UserTesting. Nous avons travaillé avec des participants réels, mais avec une marque imaginaire que nous avons créé spécialement pour cet exercice.
Dans notre exemple, imaginons qu’une entreprise examine un programme appelé TXT.
Dans cet exemple, le « contrôle » correspond à la case orange, tandis que le vert et le gris correspondent à nos variantes : B et C.
Il est important de toujours ajouter un contrôle, il s’agira généralement de la conception actuelle, déjà en utilisation.
Il s’agit du premier test de ce type pour le produit.
Listez ici les autres données connues, provenant à la fois de tests internes et de ressources externes.
Par exemple, le groupe Nielsen Norman suggère que les personnes sont plus susceptibles de cliquer sur le vert (le vert utilisé ici est la couleur de la marque de l’entreprise).
Vous pourriez également devoir prendre en compte les problèmes d’accessibilité à ce stade. Vous pouvez utiliser des outils gratuits comme Coblis pour détecter à l’avance tout problème de daltonisme qui pourrait se poser.
L’énoncé doit être très direct et mesurable.
Dans ce cas, notre hypothèse indiquait : « Nous pensons qu’un pourcentage plus élevé d’utilisateurs cliquera sur la variante B (la case verte). »
Si vous ajoutez des mots comme ET ou CAR, les métriques de votre étude doivent prouver chaque partie de votre hypothèse, les actions et les motivations des utilisateurs.
Les métriques doivent être conformes à l’hypothèse. Dans cet exemple :
Déterminez comment vous souhaitez partager votre rapport : est-il destiné à un petit groupe de personnes ou doit-il être partagé avec l’ensemble de l’entreprise ?
Vous pouvez choisir la meilleure façon de partager les résultats. Par exemple :
Cet exemple devrait vous avoir donné une meilleure compréhension des différences, des avantages (et des limites) des tests A/B et multivariés, ainsi que suffisamment d’informations pour commencer à créer vos propres tests, alors qu’attendez-vous ? Allez-y et testez !