Le baromètre 2019
MRNews-Callson
< Retour au dossier

DOSSIER : Big data et études marketing : volet 2

L’impératif de la lucidité

Thierry Vallaud

Responsable Data Mining
et Modélisation de SOCIO Logiciels

 

 

 

Le big data est-il un concept si nouveau que cela ? Dans quelles tendances de fond son usage à des fins d’études marketing s’inscrit-il ? Qu’est-ce que cela signifie pour les instituts et pour les annonceurs ? Quelle est la part du fantasme, des stratégies commerciales et des réalités ? Thierry Vallaud (SOCIO Logiciels – NP6), nous livre sa vision des choses avec une franche invitation à la lucidité, et sans langue de bois aucune !  

Market Research News : Vous êtes un spécialiste des statistiques appliquées au marketing. Quelle perception globale avez-vous de l’importance du big data pour les études marketing ? Faut-il s’attendre à ce que cela révolutionne les études ?

Thierry Vallaud : Je crois qu’il faut beaucoup se méfier des déclarations un peu fracassantes que l’on peut entendre ici où là. Cela me fait penser à ce dossier qu’avait publié Gartner il y deux ou trois ans, qui annonçait la mort des instituts d’études « traditionnels ». Je pense qu’il faut savoir raison et lucidité garder, même s’il y a une part de vrai dans l’importance des évolutions à venir. En réalité, je crois que si le big data s’inscrit dans une forme de révolution pour les études marketing, celle-ci a déjà commencé depuis quelques temps déjà. Il me semble que l’on est plutôt en train d’assister à la consolidation de certaines tendances, dont certaines ne datent pas tout à fait d’hier. Ou pour le dire autrement, si révolution il y a, elle a commencé depuis déjà quelque temps.

Quelles sont ces tendances dans lesquelles s’inscrit le big data, s’agissant des études marketing ?

L’utilisation des panels on line constitue à mon sens une des composantes majeures de cette tendance de fond à laquelle se relie le big data. La grande idée, avec l’usage des panels on-line, consiste au fond à dire que l’on obtient des éclairages très intéressants dès lors que l’on cumule le fait de travailler sur des bases très importantes, avec un principe qui est celui de l’immédiateté, et donc d’une certaine forme de spontanéité. Cela fait désormais partie de notre environnement quotidien : pas plus tard qu’hier soir, je suivais une émission de télévision, qui faisait part  des résultats d’une étude sur l’opinion des français à l’égard des roms, avec plus de 3000 personnes interrogées en quelques minutes…

C’est la grande question de la représentativité d’un certain nombre d’études…

Oui, bien sûr. Entendons-nous. Je ne considère pas que ces pratiques n’ont pas lieu d’être. Je conçois tout à fait l’existence d’un besoin pour des éclairages immédiats et à bas prix. Mais lorsque cela tend à devenir une pratique dominante, il me semble que cela devrait poser question. Il est clair que des évolutions à la fois côté instituts et côté annonceurs ont favorisé ce mouvement-là. Le besoin de rapidité et la tension sur les budgets font partie du quotidien des annonceurs. Mais on peut aussi penser que de leur côté, on assiste à une certaine perte de compréhension des enjeux de représentativité d’un échantillon. Et côté instituts, bien sûr, il est assez naturel qu’ils composent avec les évolutions des besoins de leurs clients. Mais ces évolutions induisent des risques dont les différents acteurs doivent être très conscients. L’usage du big data, si tant est que cela recouvre bien quelque chose de véritablement nouveau, s’inscrit bien dans cette même tendance de fond. Je crois en réalité que l’on assiste à une dichotomie croissante, avec d’un côté des acteurs qui vont se soucier très scrupuleusement de la scientificité des démarches d’études, et de l’autre un monde « marchand » avec des intervenants motivés par l’opportunisme commercial.

Quelles sont les autres composantes importantes, parmi ces tendances de fond que vous évoquiez ?

En lien avec l’évolution des besoins des annonceurs, on retrouve une autre composante forte qui s’intègre dans la stratégie commerciale des sociétés d’études. Je pense à cette montée en puissance des principes de fusion (de « merge ») entre les données d’études et les bases des annonceurs. On le voit surtout dans le domaine des segmentations ou des typologies stratégiques. Il y a une vraie plus value pour l’institut à proposer une typologie qui porte sur l’ensemble du marché, tout en doublant celle-ci d’un sur-échantillonage sur les clients de l’entreprise. Pour des études qui sont nécessairement lourdes, coûteuses, on maximise les usages possibles. Dans le cas que je viens de citer, l’annonceur dispose ainsi d’une grille de lecture stratégique de son marché, d’une compréhension des clients de la concurrence, et d’une analyse de la base clients.

L’institut permet ainsi à l’annonceur de mieux rentabiliser son investissement…

Tout à fait. Une autre tendance devrait se développer fortement, en s’inscrivant là encore dans cette même grande évolution de fond. Il s’agit de la propension des instituts à proposer aux annonceurs une analyse de la base-clients en amont des études « classiques ». C’est logique d’une certaine façon. L’annonceur est de plus en plus conscient de la richesse des informations contenues dans sa base de données. Avant de se lancer dans des investigations complémentaires, il est donc naturel pour lui d’exploiter au mieux ce qui existe déjà. Et l’institut a la capacité à bien discerner ce qu’une étude complémentaire peut apporter à l’annonceur. Il a donc tout intérêt, ne serait-ce que d’un strict point de vue de stratégie commerciale, à proposer aux annonceurs ces analyses préalables. Les intérêts se rencontrent.

Ce que vous évoquez-là correspond à l’usage du data-mining. Est-ce qu’il n’y a pas une différence importante entre data-mining et big data ?

En réalité, le terme de big data ne correspond qu’à une nouvelle façon de parler de data-mining. A un moment, on parlait de data-mining. Puis on utilisait le terme de « décisionnel ». Nous sommes passés au CRM analytique ; puis encore après au « data marketing ». Et nous voilà au Big Data. Il n’y a vraiment que de petites différences ; toutes ces notions gravitent autour du même concept, ce qui donne ainsi à chaque fois le sentiment d’avoir affaire à quelque chose de parfaitement neuf. Mais ce n’est pas forcément un mal, c’est aussi comme cela que les choses avancent !

Il ne faut donc pas s’attendre à des révolutions techniques !

Là encore, les changements sont souvent fortement impulsés par des stratégies commerciales. De fait, lorsqu’on fait des statistiques à l’université par exemple, on se tourne -faute d’argent- vers des solutions de type open-sources. Cela crée des effets de mode pour des solutions qui ne sont pas inintéressantes du tout, mais qui présentent des limites à un moment donné, lorsque les besoins deviennent plus sophistiqués. On voit beaucoup d’intérêt par exemple aujourd’hui pour l’usage de bases de données no-SQL, alors que des outils comme SPAD ou SPSS seraient souvent plus adaptés, et plus à même de répondre à l’évolution des besoins.

D’où vient le fait qu’il y ait autant de confusions autour du big data, en particulier sur la nature des intervenants ?

Je crois que cela provient en grande partie d’une sorte de porosité entre différents métiers, et en particulier entre celui de l’analyse statistique et de l’informatique. Il y a d’un côté une certaine pénurie : il manque de statisticiens solides sur le marché. Et on voit par ailleurs des informaticiens qui découvrent des nouvelles possibilités, qui sont plus faciles à trouver sur le marché, et qui ont la possibilité de travailler avec des outils peu chers voire gratuits, en open source. Ils s’extasient de ces nouvelles possibilités, avec un enthousiasme parfois communicatif. Mais ces possibilités en question n’ont souvent rien de bien neuf !

Quelles sont les compétences dont devront s’entourer les instituts ? Les annonceurs ?

Là encore, on voit s’exprimer un fantasme autour de la figure du CDO (Chief Data Officers) ou des datas scientists. Je pense qu’en réalité, les directeurs scientifiques des instituts sont souvent largement plus compétents que les personnes qui se présentent aujourd’hui sur le marché comme étant des « datas scientists ». Il y a une forme d’illusion à mon sens à penser que l’on va trouver des moutons à 5 pattes, en l’occurrence des individus qui cumuleraient des compétences de marketing, d’analyse statistiques et d’informatique. Je n’y crois pas. Ma vision est qu’il y aura des « data researchers », qui seront les statisticiens d’aujourd’hui, des « data users », qui seront les spécialistes du marketing, et des « data developpers », qui seront probablement les informaticiens d’aujourd’hui. Ils pourront éventuellement travailler ensemble, au sein d’un même pôle, c’est en tout cas l’option qui me paraît la plus réaliste.

Dans ce contexte, quels conseils donneriez-vous aux instituts d’études ?

Je crois qu’il y a un très sérieux enjeu pour au moins une partie d’entre eux à garder et même à développer leur scientificité « études », parce que c’est elle qui fera en grande partie la différence par rapport à d’autres acteurs. Ils doivent utiliser leurs atouts, dans un contexte où tout le monde va intégrer ces nouvelles briques de compétence. Ils savent construire des systèmes de recueils fiables et analyser les réponses des consommateurs, ce que ne savent pas bien faire les cabinets de conseil. Et ils savent formuler les questions qui font vraiment sens du point de vue marketing, ce que ne savent pas faire les informaticiens. S’ils ne font pas valoir cette scientificité, l’impératif d’immédiateté et de bas prix l’emportera, et Facebook tiendra d’ici quelques années le marché des études !

Et côté annonceurs, quelles sont les options qui vous paraissent importantes pour tirer le meilleur parti de ces évolutions ?

 Je crois qu’il est vraiment important pour les directions marketing d’avoir la bonne distance critique, de bien discerner quelles solutions elles doivent mettre en place face à leurs différents besoins. Elles doivent savoir remettre à son juste niveau les enjeux de représentativité que nous avons évoqués, faute de quoi elles se poseront toujours un peu les mêmes questions sans avancer vraiment. Et elles doivent travailler avec les sociétés qui savent apporter les bonnes réponses méthodologiques, en n’étant pas dupes de cette confusion des genres qu’il peut y avoir sur le marché. Mais elles ont clairement un réel intérêt à générer une véritable connaissance des marchés et des clients qui combinent les différentes sources d’information et les différentes analyses. Sur beaucoup de questions, de la fidélité des consommateurs à l’élasticité au prix, il y a un réel intérêt à écouter à la fois les dataminers et les études, et à les faire travailler ensemble. Cela me semble en tout cas être une évolution logique si elle n’est pas déjà mise en oeuvre, avec la création de directions de la connaissance clients.  Ou du « Customer knowledge » pour qui préfère les anglicismes.


 POUR ACTION 

Commenter 

• Echanger avec l'interviewé(e) : @ Thierry Vallaud

• Partager sur LinkedIn