Tests A/B

[a/b test] Faut-il ajouter un bouton d’action sur une bannière pour optimiser son taux de clic ?

Il y a quelques semaines maintenant, je vous avais présenté tout un ensemble de tests que j’avais mis en place pour mesurer l’impact sur le taux de clic des différents éléments qui composent une bannière.

Le dernier test que je n’avais pas réalisé à l’époque était de mesurer l’impact de la présence d’un bouton sur le taux de clic d’une bannière. J’ai pu réaliser ce test et je vais vous présenter les résultats.

Avant qu’on commence, à votre avis, est-ce qu’afficher un bouton d’action (exemple: « en savoir plus », « acheter ») sur une bannière permet d’augmenter le taux de clic de celle-ci ?

Lire également: Les 5 meilleures banques d’images libres de droit pour trouver vos photos gratuites

 

Rappel de la méthodologie

Dans un premier temps, il est important que je vous rappelle la méthodologie que j’ai appliquée.

Pour faire cet a/b test, j’ai utilisé un adserver grâce auquel j’ai mis en avant deux campagnes avec deux formats différents.

Pour chaque bannière, les créations étaient totalement similaires (texte & image). La seule différence proviennait de l’ajout sur l’une d’elle d’un bouton d’action.

J’ai envoyé 500 000 impressions sur les bannières en compétition pour chaque campagne: 250 000 pour chaque bannière.

Cette méthodologie m’a permise d’avoir suffisamment d’impressions pour minimiser le risque de mouton noir, l’internaute qui ne réagit pas comme la masse.

 

Présentation des campagnes mises en avant

J’ai mis en ligne deux campagnes avec deux formats différents.

Ces campagnes avaient pour objectif de mettre en avant des logiciels pour lesquels il est plus efficace de communiquer sur la fonctionnalité que sur le nom propre du produit.

1ère campagne: logiciel de retouche photo

Version A

Smart_450-110-inpixio

Version B

Smart_450-110_ss-bouton

Comme vous pouvez le voir, le seul changement entre ces deux bannières est la présence sur l’une d’elle d’un bouton d’action qui reprend le vocabulaire habituel du site Telecharger.com

A votre avis, quelle version a obtenu le meilleur taux de clic ?

 

2ème campagne: logiciel d’optimisation de PC

Version A

Smart_300-120_system-emchanic

Version B

Smart_300-120_ss-button

Comme vous pouvez le voir, cette campagne est mise en avant sur un format plus petit.

A votre avis, quelle version a obtenu le meilleur taux de clic ?

 

Les résultats de l’a/b testing ?

Le changement la réponse, c’est maintenant ! ^^

Résultat de la première campagne

Après avoir affiché 250 000 impressions de chaque version, il apparaît que c’est la version A, soit celle avec le bouton d’action, qui a obtenue le meilleur taux de clic.

Smart_450-110-inpixio

En effet, elle a obtenu un taux de clic 180% fois supérieur à la version sans bouton d’action !

Aviez-vous imaginé qu’un bouton d’action puisse avoir un tel impact sur le taux de clic d’une bannière ?

 

Résultat de la deuxième campagne

Vous vous en doutez et vous avez sûrement raison !

C’est bien la version A, soit celle avec le bouton d’action, qui a obtenue le meilleur taux de clic.

Smart_300-120_system-emchanic

Cette version a obtenu un taux de clic supérieur de 83%.

 

Question !

Ces résultats m’ont fait me poser une question supplémentaire et je compte sur vous pour me donner votre avis via les commentaires.

Est-ce que vous pensez que les proportions d’écart de taux de clics entre les deux campagnes peut s’expliquer par les tailles différentes des campagnes mises en avant ?

Pour traduire en français ma précédente phrase, la différence de taux de clic de la campagne dont les bannières étaient les plus larges (retouche photo) était de 180%. La campagne avec les bannières plus petites (optimisation PC) a obtenu une différence de taux de clic de 80%.

A votre avis, est-ce que la taille de la bannière influe sur l’évolution du taux de clic entre deux bannières dont l’une aurait un bouton d’action ? J’espère que vous arrivez à me suivre !

Difficile d’y répondre. Il faudrait réaliser d’autres tests pour avoir d’autres stats. Cela fera peut-être l’objet d’un futur billet 😉

Laissez votre avis sur cet article

A propos de l'auteur

Sébastien BLERIOT

Evoluant en e-commerce depuis plus de ç ans maintenant, j'ai profité de mes différentes expériences chez Rueducommerce et Next Interactive (BFM TV, RMC, 01net) et ELEGIA Formation pour développer mon expertise de la vente en ligne en B to C et B to B.
J'accompagne régulièrement des e-commerçants dans l'optimisation de leur stratégie e-commerce.

7 commentaires

  • Bonsoir, test intéressant. Pour ma part c’3st le sujet de la seconde annonce qui pose souci. L’internaute est plus méfiant quant à télécharger ce genre de sort via un pub. Ci il l’ont deja fait une fois dans leurs vie, il ont comprisqu’il ne faut plus recommencer.

  • C’est un test bien intéressant mais je pense qu’il serait encore plus instructif de pousser plus loin l’étude.
    Un bouton de call-to-action a deux composantes : une forme (bouton) suggérant un lieu d’action et un wording explicitant l’action produite. Le test présenté ici supprime d’un coup ces deux entités. Il serait intéressant de constater l’utilité de chacune.

    Test A : supprimer le bouton mais ajouter au contenu textuel de la bannière un wording d’action très explicite.

    Test B : supprimer le wording du bouton et le remplacer par une icône d’action neutre (genre une flèche vers la droite).

    Erwan, web designer.

  • Eh oui, cet article nous prouve que l’A/B testing est vraiment top ! Je pense que le format des bannières et son ergonomie influence effectivement comme dit Victoire l’utilisateur. La première proposition est nettement plus lisible et donne envie de cliquer.

  • Effectivement encore un parfait exemple que l’A/B testing c’est génial 🙂 Pour ma part je pense que c’est l’ergonomie dans sa globalité qui influence l’utilisateur. On pourrait également imaginer une étude de l’ergonomie de ta bannière. On pourrait comprendre clairement ce qui joue sur l’efficacité d’une bannière (emplacement, design, grosseur…)

  • Vive l’A/B testing, et cet article vient encore nous le prouver ! Je pense que l’écart entre les taux de clic des versions gagnantes est principalement dû au format de bannières. La première est globalement plus lisible. Après, il y a peut-être d’autres facteurs à prendre en compte, notamment, les critères de ciblage, et donc les publics ciblés qui peuvent réagir différemment face à la publicité.

  • Encore une illustration de la vertu des tests !
    Pour ma part, je pense que dans le deuxième exemple, le texte est au global plus petit et plus tassé à cause du bouton, ce qui fait perdre un peu en lisibilité. Le bouton d’action reste cependant un plus.

Laisser un commentaire