Le baromètre 2019
MRNews-Callson
< Retour au dossier

DOSSIER : Big Data : tarte à la crème ou révolution pour les études marketing ? (volet 1)

De la complémentarité au mariage…

Luc Milbergue
et Quentin Michard

PDG de Stratégir
et Directeur Associé
d'EkiMetrics

 

Et si le big data n’était pas un enjeu technique si redoutable mais bien plutôt une sacrée opportunité pour associer des savoir-faire et des cultures jusqu’ici disjointes, et apporter ainsi encore plus de sens pour décision et pour action ? Telle est en substance la vision partagée par Luc Milbergue (Stratégir) et Quentin Michard (EkiMetrics), les dirigeants de deux sociétés dont le partenariat récemment scellé témoigne manifestement de l'envie de passer rapidement de la théorie à la pratique.

Nous évoquerons bien sûr les raisons qui vous font parler à deux voix sur le thème du Big Data. Mais en préambule, dans quels termes décririez-vous l’état d’esprit de vos clients respectifs : s’intéressent-t-ils vraiment au Big Data ?

Luc Milbergue : Il nous semble que les choses s’accélèrent nettement depuis un an environ, et que ce sujet commence à résonner assez fort au sein des entreprises. Nous avons pu le constater tout récemment chez un de nos clients qui fait partie du « top 5 » de l’univers de la grande conso. Nos interlocuteurs études se posent la question des impacts du digital et du big data sur leur fonction, les façons de travailler, les compétences, l’organisation.... Il est clair que les dirigeants d’entreprises sollicitent de plus en plus leurs équipes à ce sujet.

Quentin Michard : Nous partageons ce constat. Jusqu’ici, ceux qui étaient les plus sensibles au sujet étaient les acteurs des études ou du marketing ayant une forte sensibilité analytique. On constate une évolution, suite au travail de fond effectué par un certain nombre de leaders d’opinion. On peut citer notamment le cabinet McKinsey, qui a publié un rapport dont l’écho a été important. Les directions générales se saisissent aujourd’hui du sujet, se posent la question de savoir ce qui est fait dans leur entreprise. Et cette interrogation sur les opportunités du Big Data se propage ainsi vers des strates plus opérationnelles, et des fonctions supports, telles que les études.

Le terme de « révolution » est assez systématiquement accolé à la notion de Big Data. Est-ce justifié selon-vous ? En quoi le Big Data est-il si éloigné des techniques utilisées en matière de data-mining ?

QM : La notion « big data » implique de travailler une quantité de données importante, structurées ou non structurées, en temps réel. Le terme big data, peut parfois aussi définir les technologies utiles à la gestion de ces données massives. Le data-mining consiste à utiliser des méthodologies analytiques afin d’extraire de la valeur de la donnée, d’en tirer sa substantifique moelle. Il repose sur l’utilisation de méthodes mathématiques, statistiques ou encore informatique permettant de mettre en exergue des phénomènes physiques, sociétaux ou économique. Dans son rapport McKinsey constate que beaucoup d’acteurs proposent des technologies permettant de capter, stocker et processer les données (parmi lesquels IBM, Oracle, Teradata,…). En revanche il décrit également l’absence quasi-totale d’acteurs capables de valoriser cette donnée, et d’en extraire du sens, pour nourrir le processus de décision. C’est le positionnement et le savoir-faire d’ekimetrics depuis sa création en 2006. C’est aussi notre singularité.

Est-ce que ce passage au Big Data induit la nécessité d’un « saut technique » important ?

QM : Du strict point de vue technologique, on doit plus parler d’évolution que de révolution. Cela ne nécessite pas le franchissement d’une barrière si importante pour les entreprises, avec l’obligation d’investir dans des systèmes extraordinairement onéreux. La notion importante est qu’avec le Big Data, on doit utiliser des procédés de calcul « distribué ». C’est la technologie « Hadoop », consistant à répartir une même tache à plusieurs systèmes interconnectés. Il y a quelques temps, nous nous étions donné comme objectif de construire un outil permettant d’écouter ce qui se disait sur tweeter, et plus largement sur les réseaux sociaux. Nous avions commencé cela à l’occasion des Jeux Olympiques de Londres. Et nous l’avons poursuivi pour le festival de Cannes, dans le cadre d’un partenariat avec Télérama, où nous cherchions à appréhender le mieux possible le buzz produit par chacun des films présentés (ce qui a très bien fonctionné puisque cela nous a permis de prévoir le palmarès !). Pour capter, historiser et mettre en base ces données en temps réel, il était nécessaire d’avoir recours à la  technologie Hadoop. Cela nous a demandé 3 jours de développement. Je pense que c’est un exemple intéressant pour comprendre ce que cette technologie apporte, mais aussi pour démystifier un peu les choses. Il ne faut pas 3 ans de développement pour disposer de la technologie Big Data. La complexité repose certainement plus dans le nettoyage et le contrôle de cohérence des données.

LM: Tout est relatif. Les gens des études, y compris des quantitativistes, ne doivent pas être très nombreux à avoir entendu parler d’Hadoop ! Mais si l’importance du saut technique est discutable, le passage au big data implique bien une petite révolution culturelle pour les équipes études !

En quoi est-ce que cela implique une révolution culturelle ?

LM : Le réflexe naturel dans les études est de toujours chercher à comprendre, à expliquer. Le big data conduit à une forme de connaissance particulière : on observe, on constate, on apprend des choses et on les applique, parfois sans les comprendre. Prenons l’exemple de Facebook. Le premier business model pour monétiser ses abonnés consistait à analyser leurs profils afin de leur proposer des messages publicitaires ciblés. Comme les taux de transformation étaient  bien inférieurs à ceux enregistrés par son concurrent Google, malgré des investissements lourds en data mining, Facebook a modifié sa stratégie de ciblage en adoptant des techniques de retargeting, consistant à réexposer le visiteur aux produits qu’il a précédemment consultés sur d’autres sites. Autrement dit, au lieu d’essayer de comprendre son client afin de lui proposer le produit le plus adapté, il se contente à présent de lui proposer à nouveau ce qu’il vient d’aller voir, sans chercher à comprendre qui il est, et par quel produit il est intéressé…Transposé dans le domaine des études, cela signifie que l’on se dispense de cette étape consistant à formaliser un modèle théorique. Il s’agit donc d’une autre école qui consiste à observer. On observe et on décrit une réalité et des phénomènes, et c’est l’analyse statistique qui permet d’identifier les lois qui sous-tendent ces phénomènes, avec des causes et des effets. On ne formule pas d’hypothèses sur les équations, ce sont les analyses qui formulent celles qui fonctionnent le mieux. Ça ouvre des perspectives particulièrement intéressantes, par exemple dans l’optimisation des modélisations en tests de potentiel.

J’ai du mal à concevoir le fait que l’on ne formule plus d’hypothèses…

QM : le Big Data implique en effet une démarche fondamentalement empirique. On analyse des comportements, et on en déduit des « lois » : telles causes produisent tels effets. Et comme dit Luc, on le fait sans forcément formaliser ensuite un modèle théorique, explicatif. Mais d’une certaine façon, on n’abandonne pas complètement l’exercice des hypothèses. On le fait différemment, en se posant des questions sur la nature des variables susceptibles d’intervenir en tant que « causes » d’un certain nombre de phénomènes. Mais il s’agit bien d’une conviction partagée chez ekimetrics : nous ne croyons pas que l’empirisme puisse se substituer de la réflexion. Autrement dit, nous ne croyons pas en le « tout automatique ». La statistique qui, elle seule, sans démarche intellectuelle humaine, pourrait décoder et mettre en équation les marchés et les phénomènes est une utopie. Au contraire, un bon data scientist doit connaitre les marchés, et posséder de solide connaissance business afin de construire des modèles performants. Dans cette vision des choses, l’avantage des technologies Big Data est qu’elles permettent de gagner du temps sur la partie analytique, que l’on peut ainsi réinvestir en prise de recul et en temps de réflexion.

On retrouve également la notion d’hypothèse en aval de l’analyse, lors de la phase d’extrapolation et de prévisions (de volume de vente, d’un nombre de spectateur, de la pénétration d’un produit,…). La prévision implique la scénarisation, notamment d’évènements que nos clients ne maîtrisent pas, comme par exemple l’évolution des taxes gouvernementales, les phénomènes météorologiques, ou encore la pression concurrentielle. Ces éléments impactent au premier ordre la performance de nos partenaires, et il convient alors de pouvoir quantifier ces phénomènes pour mieux en identifier les risques et opportunités. Là encore, la démarche analytique reposant sur l’analyse des observations passées est très puissante pour répondre à ces problématiques, mais elle ne peut substituer à l’exercice de la formalisation d’hypothèses, en mettant l’ensemble des acteurs concernés autour d’une table (marketing, études, finances,…).

Pour certains, la puissance d’analyse que peut apporter le Big Data est telle que cela pourrait « dissoudre » au moins en partie le métier des études dans sa composante « classique ». Qu’en pensez-vous ?

QM : Non. A l’évidence, c’est bien de complémentarité dont il est question. Les possibilités associées au Big Data vont rentrer dans la panoplie des méthodologies à disposition des directions d’études des entreprises. Et celles-ci auront à arbitrer entre ces différentes méthodologies en fonction de leurs problématiques et de leurs ressources

LM : Je suis complètement d’accord avec cela. Même si je crois néanmoins que dans un certain nombre de cas, des démarches purement analytiques pourront se substituer à des études classiques.

Sur quelles types d’études le Big Data peut-il s’imposer ?

LM : Je pense par exemple à des chantiers de segmentation des clients, où la prise en compte de comportements exhaustifs peut parfois être plus efficace que des démarches d’études reposant sur les données déclaratives d’un échantillon de consommateur. Mais toute une partie de l’activité des études porte sur l’évaluation de la stratégie, avec les tests de potentiel, les tests de pack, de produits. Ce sont des domaines ou le Big Data n’a pas sa place puisqu’on essaie dans ces cas-là d’anticiper les comportements des consommateurs face à des stimuli qui n’existaient pas jusque-là. L’usage du Big Data suppose la connaissance de comportements passés ou actuels. C’est là que la frontière va se définir.

Il s’agit donc bien de trouver les termes de la meilleure complémentarité possible entre big data et études « traditionnelles »…

LM : Tout à fait, même si certains acteurs auront beau jeu de les opposer. A mon sens, il y a bien différentes logiques d’usage du big data. On peut très bien mesurer tout un tas de choses de façon systématique. Mais la question est de savoir ce que l’on fait de ces mesures, comment on en donne une intelligence. Notre façon à nous d’utiliser le Big Data consiste à l’intégrer comme une des composantes possibles d’une étude. On imbrique par exemple du quali, du quanti, et l’écoute des réseaux sociaux. Mais on le fait bien en réponse à une problématique donnée ; et c’est dans ce cadre qu’il y a des points de rencontre et des complémentarités évidentes entre nous. Ekimetrics a une expertise du Mix Modeling et donc de la compréhension des moyens-moteurs en particulier la pub, la promo. Stratégir a de son côté son expertise sur les tests d’innovation et de potentiel, où la prise en compte de ces moyens-moteurs est importante. C’est un des domaines où notre partenariat ne peut que déboucher sur des améliorations, et donc pour des éclairages intéressants pour nos clients.

QM : Nous partageons en effet une philosophie commune. Notre logique est bien d’apporter des réponses ad-hoc à une problématique. Nous n’avons pas d’outils. C’est typiquement l’exemple de ce que nous avons fait dans le cadre de notre partenariat avec Télérama. L’objectif n’était pas d’obtenir des scores quantitatifs, mais une analyse éditoriale de la qualité des films, avec l’impact du casting ou des éléments de contenu. Le big data peut amener à une analyse « qualitative », dès lors qu’on laisse un peu de place à l’intelligence humaine et à l’esprit d’analyse.

La bonne problématisation est donc toujours la clé…

LM : Absolument ! A partir d’un problème donné, on regarde quelles sont les options permettant d’apporter des éléments de réponse intéressants. En abordant les choses ainsi, nos expertises sont nécessairement complémentaires. C’est la vocation même des sociétés d’études que de s’efforcer à mettre du sens sur des données. Et c’est une vocation que nous partageons avec une société comme Eki-Metrics. Nous le faisons au travers de démarches différentes et complémentaires. D’où l’intérêt de notre partenariat, qui prend tout son sens sur des problématiques où, par exemple, il y a besoin d’analyser les données dont dispose une entreprise sur ses propres clients, mais aussi d’intégrer la vision globale du marché. C’est le cas notamment sur les problématiques de segmentation de clients.

QM : Au fond, notre démarche n’est pas si éloignée de celle des grands cabinets de conseil, qui analysent d’une part les données de leurs clients, et collaborent d’autres part avec certains instituts la réalisation des études nécessaires pour avoir une vision complémentaire des clients et des marchés.

LM : Et nous n’avons précisément nulle envie d’être les sous-traitants des cabinets de conseil ! Pour que les instituts d’études bénéficient de l’expertise  nécessaire, ils doivent soit internaliser ces compétences du marketing analytique et du big data, soit mettre en place des partenariats. C’est le sens de ce partenariat Stratégir-Ekimetrics, qui sont d’une part  deux sociétés de taille comparables et qui d’autre part partagent cette vision d’une forte synergie potentielle entre études marketing et big data. Si l’on se place du point de vue des clients, il est évident qu’ils ont plus de chances de trouver des réponses intéressantes, plutôt qu’en s’adressant uniquement à des pure-players spécialistes des différentes techniques disponibles sur le marché.

Quels sont les conseils que vous seriez tentés de formuler vis à vis des annonceurs, et en particulier aux responsables des études ?

LM : Je crois qu’il est vraiment impératif pour eux de s’approprier le big data. Ils doivent se donner une vision claire et réaliste de ce que le big data peut leur apporter. Ils ont un immense intérêt à bien identifier les synergies possibles avec les études dites traditionnelles, et à intégrer ces techniques comme partie prenante de la panoplie des outils qu’ils devront utiliser. Si les directions générales les sollicitent sur le sujet, ce qui est très probable, il est préférable qu’ils soient en mesure de répondre à leurs interrogations.

Vous avez utilisé ce terme de révolution culturelle… Est-elle si facilement assimilable par les équipes en charge des études ?

QM : C’est en tout cas une opportunité, même si aujourd’hui on constate encore un clivage entre les personnes qui ont une certaine culture de l’analytique, et celles qui l’ont moins. Aujourd’hui, les études ont majoritairement recours aux post-tests pour mesurer les effets de leurs campagnes de communication. Il est aujourd’hui possible des éclairages complémentaires par l’approche économétrique sur le bas du purchase funnel, comme par exemple sur les  volumes de ventes d’un produit, un chiffre d’affaires, le nombre d’ouvertures de compte bancaire. Des éléments qui intéressent tout autant les directions générales que les critères de notoriété, d’attribution ou de mémorisation…En tant que pionnier en France sur ces approches, il  nous appartient d’évangéliser, d’expliquer et d’apporter de la pédagogie à nos méthodes, qui peuvent parfois être un peu complexe. Il faut donc convaincre de l’intérêt et de l’impact de nos approches, et ne pas hésiter à proposer des démarches étapes par étapes, avec des résultats intermédiaires et des cycles de validation courts pour nos clients. Le témoignage de nos clients et leur retour d’expérience sont aussi des éléments déterminants.

Voyez-vous un autre conseil important à rajouter ?

LM : La fameuse formule « garbage in, garbage out » s’applique ici parfaitement. On n’obtient rien d’intéressant si la question n’est pas la bonne comme nous l’avons évoqué, ou si la qualité des datas est insuffisante. Il faut donc veiller particulièrement à cela. Et je crois fondamentalement qu’il vaut mieux commencer par des petits problèmes, simples à traiter mais bien posés. On voit ce que le big data peut apporter. Cela me semble nettement préférable à des démarches où l’on part sur des investissements très lourds, en se posant à posteriori la question de savoir comment les rentabiliser.

QM : Ne pas croire en la toute-puissance du big data, et la toute-puissance des outils.  Y aller étape par étape, effectivement faire très attention à la nature et à la qualité des données utilisées. C’est sans doute un bon résumé des raisons de bien des échecs dans l’implantation des dispositifs de CRM, où on a trop pensé « outil », avec une réflexion insuffisante sur les usages, et la façon de les opérer. Flexibilité des systèmes, évolutivité des approches, et bon équilibre entre cout des systèmes et coût des opérations (capex/opex) sur ces projets seront des facteurs clés de succès, quelques soient les services concernés marketing, SI, finance ou études.


 POUR ACTION 

Commenter 

• Echanger avec l'interviewé(e) : @ Luc Milbergue  @ Quentin Michard

• Partager sur LinkedIn