Le baromètre 2018
Etudes et Intelligence Marketing
< Retour au dossier

DOSSIER : Comment mieux prédire les chances de succès des nouveaux produits ?

L'art de la mise en scène

Frédéric Mariani
et Sandrine Pouré

Co-fondateurs
de Scènes de Vie

Vous êtes des spécialistes de l’innovation et du comportement d’achat en lieux de vente. De votre point de vue, pourquoi est-il si difficile de prévoir les chances de succès des nouveaux produits ?

Il faut préciser que notre domaine d’expertise est celui des produits de grande consommation ou, pour le dire encore plus simplement, de ce qui se vend dans les circuits de type super et hyper-marché. Nous ne parlerons donc pas de ce que nous ne connaissons pas ou mal, l’univers des services par exemple ou bien encore des biens d’équipement, pour lesquels la prévision est sans doute plus difficile encore.

Pour cet univers de la grande consommation, soyons honnête : on voit de tout, avec des succès et des flops, aussi bien pour les lancements en tant que tels que pour les études qui les ont précédés. De fait, il est clair qu’il peut y avoir des écarts considérables entre les paramètres et les hypothèses retenues au moment du test, et la réalité du lancement. Mais il faut aussi rester modeste : on ne sait pas tout prévoir de ce qui peut se produire sur un marché. Certains aspects en particulier sont difficiles à anticiper : c’est le cas notamment de l’accueil des distributeurs, mais aussi de l’effet de la publicité et du bouche à oreille.

Quels sont pour vous les grands principes à respecter pour faire en sorte que les études donnent la bonne vision des chances de succès des nouveaux produits ?

Le premier grand principe général est d’être le plus proche possible de la vraie vie. Celle des consommateurs et des produits, avec tout ce que cela implique dans la mise en scène de ceux-ci, dans un environnement qui est par définition concurrentiel.

Certains annonceurs sont très puristes dans l’application de ce principe. Plutôt que de réaliser des études, ils s’en tiennent à lancer le produit en réel sur une zone test. C’est une mécanique on ne peut plus classique, et qui peut faire sens : on met le produit en vente sur une période de temps cohérente avec la fréquence d’achat la plus habituelle, disons entre trois et six mois ; et on voit tout simplement ce que cela donne ! Mais de fait, cette option n’est que rarement applicable compte tenu des contraintes des annonceurs.

Quelles sont ces contraintes, et comment peut-on donc les intégrer ?

Ces contraintes sont de différentes natures : la confidentialité peut rentrer en ligne de compte. Mais il y a tout simplement des contraintes de temps et d’argent. Tester « en réel » demande du temps, mais cela suppose aussi et surtout que le produit soit complètement finalisé et fabriqué en volumes non négligeables. Ce n’est pas toujours possible du fait des contraintes industrielles. Mais il arrive très souvent que l’annonceur se pose des questions sur l’attractivité d’une offre à un stade où le mix n’est pas encore finalisé. La réflexion reste assez ouverte sur le produit, et la question de la « prévision » s’intègre donc dans une interrogation plus globale, plus large, dans laquelle on cherche précisément à déterminer les paramètres du mix qui vont optimiser les ventes.

Il ne doit effectivement pas être si facile de prévoir les ventes d’un produit qui n’est défini qu’à moitié ! Comment fait-on cela ?

C’est pourtant bien comme cela que les problèmes se posent pour les annonceurs. C’est parfaitement compréhensible, sachant que l’incertitude ne se limite pas bien sûr à l’offre à lancer : l’offre des concurrents n’est pas figée, et tout peut être remis en cause ! La vraie vie, c’est le jeu des aléas… Pour tenir compte de cela, les approches que nous préconisons consiste à intégrer les éléments les plus fondamentaux de la « vraie vie » des consommateurs, tout en se donnant les moyens de maitriser au maximum les variables clés du mix.

Qu’est ce que cela implique dans les protocoles de test que vous préconisez ?

Les conditions sont à adapter en fonction des contraintes de l’annonceur, mais le schéma que nous préconisons le plus souvent consiste à tester le nouveau produit dans des espaces de vente reconstitués. Les consommateurs de la catégorie concernée sont invités à faire leurs choix dans des espaces où le produit à tester est présent en linéaire, en situation donc, avec les produits concurrents. On reproduit les conditions les plus réalistes quant à l’emplacement des différents produits, et aux parts de facing qui leurs sont accordées. Cette « mise en scène » est élaborée avec des produits qui sont donc des maquettes ou des prototypes si possible. On mesure ainsi ce qui se passe dans un environnement concurrentiel tout en intégrant au maximum les contraintes des annonceurs.

C’est ce que permettent de faire ces magasins reconstitués ?

Oui, même si pour être précis, il ne nous paraît pas pertinent de reconstituer des magasins dans leur intégralité. S’il s’agit de tester un produit de la catégorie hygiène-beauté, il ne nous semble pas indispensable d’avoir la présence du rayon des petits pois ! Nous préférons donc reconstruire des univers de référence, qui permettent de « noyer le poisson » (le consommateur n’est pas focalisé sur un rayon trop précis), tout en étant dans un environnement réaliste. Si le produit testé est un produit douche, il est cohérent d’avoir un environnement où seront présents les dentifrices, la mousse à raser, les shampoings, etcétéra. Concrètement donc, nous reconstituons des espaces de 30 à 40 m2, avec 5 à 6 rayons.

Mais si les contraintes de l’annonceur sont telles qu’il n’est pas possible d’avoir des maquettes, nous utilisons un système de « bâches photo » : des photos des rayons en taille réelle, avec une qualité de reproduction permettant d’atteindre un niveau de réalisme assez étonnant, à un point tel que les consommateurs font parfois le geste de saisir les produits ! Là encore, on n’est pas dans la réalité, mais dans un principe de réalisme qui permet d’intégrer les contraintes.

Et que mesurez-vous concrètement ?

Nous intégrons un certain nombre de métriques mais les deux indicateurs fondamentaux sont d’une part le taux d’achat (la proportion des consommateurs qui ont acheté le produit), et d’autre part l’impact des produits : la proportion des consommateurs qui déclarent avoir vu le produit. Cela nous donne ainsi les éléments essentiels du diagnostic, à la fois sur la visibilité du produit et sur son attractivité.

Comment faites-vous pour juger de la performance des produits testés. Vous comparez ces taux à ceux de votre banque de données ?

Vous mettez le doigt sur un point clé de notre philosophie : nous nous affranchissons en partie de l’impératif des standards et de la comparaison avec les résultats des bases de données. La notion de standard fait sens pour des indicateurs tels que le niveau d’intérêt perçu du produit ou son originalité, que nous mesurons par ailleurs. Mais cela ne nous semble pas pertinent en revanche pour nos indicateurs de taux d’achat et de visibilité, dont les niveaux sont extrêmement hétérogènes en fonction de ce que l’on teste et des environnements de référence. On ne peut pas donner un taux d’achat standard : tous les rayons sont différents, avec des différences très fines mais bien réelles entre les différents sous-segments d’offre. Notre logique est au fond très simple : notre indicateur central est le taux d’achat, parce qu’il est le plus cohérent avec ce qui se produit dans la vraie vie.

Pour être plus précis dans le jugement de la performance du produit testé, on la compare avec celle des produits concurrents, qui sont bien présents dans le cadre de l’étude comme nous l’avons évoqué. Nos clients connaissent la performance des produits concurrents dans la réalité du marché, et bien évidemment, nous avons tenu compte de tout cela dans la constitution de l’échantillon, en recrutant les proportions cohérentes des acheteurs habituels des produits X, Y et Z.

Cela fait le lien avec la question de la cible que vous interrogez. Quelle est votre philosophie sur ce point ?

Nous pensons qu’il faut éviter l’interrogation de cibles trop larges, dites représentatives de la population française. En pratique, nous recommandons de cibler les acheteurs de la catégorie de produits concernée, en tenant compte de l’équilibre entre les petits, les moyens et les gros acheteurs. Il peut parfois y avoir des hésitations sur des produits qui sont un peu « OVNI », ou qui dit autrement sont un peu à cheval entre plusieurs catégories. Mais en échangeant avec l’annonceur, on parvient toujours à trouver une option raisonnable. Soit dit au passage, celui-ci peut être tenté de raisonner sur un univers de consommateurs un peu trop large, pour maximiser la pénétration de départ. Sauf cas particulier, nous ne le recommandons pas : on obtient le plus souvent des taux d’achat epsilonesques sur les non-acheteurs de la catégorie.

En substance, vous dites que l’on ne peut pas définir le potentiel d’un produit sans avoir déterminé le rayon dans lequel il sera vendu…

Tout à fait. Cela peut poser problème pour les OVNI que nous venons d’évoquer. Dans les cas les plus complexes, on peut être amené à tester le produit dans différentes configurations, dans différents rayons donc, ce qui permet de voir là où il obtient son meilleur potentiel. Mais effectivement, le rayon est déterminant parce qu’il est la base de la connaissance.

Et comment passe-t-on de cette notion de taux d’achat aux volumétries prévisionnelles de vente ?

Il y a deux étapes différentes qui viennent se rajouter. La première a pour objet de faire une estimation du taux de ré-achat, ce qui suppose donc d’étudier ce qui se produit lorsque les gens consomment le produit. C’est une évidence, mais il faut toujours la rappeler : la qualité de l’expérience de consommation est absolument essentielle dans le succès d’un produit. Et on ne peut donc pas aller bien loin dans l’estimation des chances de succès du produit en question si l’on fait l’impasse là-dessus : il faut donc mesurer la satisfaction à l’essai et les probabilités de réachat, et ce auprès de l’ensemble des personnes qui avaient une intention d’achat non nulle.

La deuxième étape est celle du « calcul ». On met toutes les informations en équation, en intégrant les résultats de l’étude et les données de cadrage. On utilise alors la connaissance de la catégorie concernée : la pénétration, la fréquence d’achat, les quantités moyennes achetées, etcétéra. Et on intègre enfin les paramètres clés du lancement, notamment pour ce qui est des moyens publicitaires (indices de GRP), promotionnels, et de la distribution (quelle DN/DV) et du calendrier de mise en œuvre de ces moyens.

Comment éviter les erreurs les plus « classiques » en matière de test de produits, et plus largement quels conseils donneriez-vous aux annonceurs en la matière ?

Il y un réel avantage à être très réaliste dans les hypothèses de lancement. Il est naturel d’être optimiste. Mais si l’on sait qu’in fine, le produit ne sera diffusé que dans une ou deux enseignes au maximum, autant l’intégrer d’emblée dans les hypothèses. Cela concerne aussi un aspect très sensible qui est la visibilité du produit. Il faut que les parts de facing et que les emplacements testés soient réalistes, faute de quoi on minore très fortement l’intérêt du test, et la valeur de l’estimation qui en résulte.

Aussi surprenant que cela puisse paraître, il y a régulièrement un manque de réalisme sur un critère aussi majeur que le prix. Tout le temps passé avec les interlocuteurs commerciaux ou avec les contrôleurs de gestion pour caler des hypothèses réalistes est au final du temps gagné sur la qualité de l’étude et son intérêt !

 

Contacts :

@Frédéric Mariani  - @Sandrine Poure  - Scènes de Vie


REAGIR - PARTAGER