96 article(s)

par page

Par ordre croissant

Vu, Lu & Entendu

  1. La représentativité d’hier est-elle en phase avec la représentativité nécessaire aujourd’hui ? Le point de vue de Bruno Colin

    2 févr. 2016

    La représentativité fait partie de ces enjeux à la fois fondamentaux pour les études marketing – puisque très directement associés à la question de la valeur ajoutée de celles-ci - mais dont les schémas sont remis en cause par l’évolution de nos écosystèmes d’information et d’interaction, digital oblige. Comment faut-il donc repenser cette notion de représentativité, en intégrant la nouvelle donne de notre environnement tout en ayant le parti-pris de rigueur inhérente à la pratique des études ?  

    En complément de notre dossier sur ce thème, voici le point de vue que nous propose Bruno Colin, avec le prisme de l’expérience et du pragmatisme qui est le sien.

    POINT DE VUE : Bruno Colin (Return On Data)

    En Market Research, tout change, tout lasse, tout casse… Sauf cette notion de représentativité derrière laquelle chacun se refugie quand les arguments s’essoufflent.

    En effet, à force de brandir ce Joker comme de dernier rempart à « l’ubérisation » des études (voir l’article ici)  on ne sait plus vraiment ce qu’il représente (ce qui est paradoxal …. La représentativité représente quoi, qui ?).

    Voyage dans le passé, à une époque ou la question ne se posait pas…

    Il y a bien longtemps, dans un monde non digital, il s’agissait de construire un échantillon de taille raisonnable de personnes, de magasins qui, mis bout à bout, faisaient la somme des possibles en termes de pensées, d’actions, d’achats, de ventes.

    Il s’agissait de bien prendre en compte la combinatoire des individualités afin de « représenter » notre cible, c’est à dire « l’univers » qui nous intéressait, soit pour comprendre un phénomène, soit pour mesurer un état de fait.

    Les vecteurs de communication étaient limités, soit on se parlait (du face à face), soit on se téléphonait (le CATI), et l’uniformisation comportementale des noyaux sociodémographiques usuels de mise. Les hommes jeunes, les ménagères de moins de 50 ans, devaient tous plus ou moins être identiques, et si l’échantillon avait le bon nombre dans chacun de ces groupes, la vie était belle, le résultat scientifiquement juste. Rien à redire.

    Mais l’univers s’est élargi, une « étoile noire » est apparue, et les preux Jedi du Market Research ont vu la galaxie du Digital prendre une place centrale.

    Maintenant tout est communication, connexion, immédiateté, connaissance (dans le sens de la notoriété) de ce qui se passe dans le monde, car nous savons en quasi temps réel ce que font ou pensent nos camarades (ou amis), anciennement d’enfance ou de quartier, maintenant virtuels ou numériques. Avant un ami était connu depuis 30 ans, maintenant depuis 30 « like ». Mais ceci est un autre sujet.

    La vraie question de la représentativité est pour moi centrée sur les média avec lesquels nos anciens noyaux, devenus communautés, interagissent.

    Dominique Cardon évoque, dans son très bon bouquin « A quoi rêvent les algorithmes », le « débordement des catégories ». Je le cite : « les agrégats de la statistique sociale n’accrochent plus sur nos sociétés : ils ne permettent plus ce va-et-vient des individus vers une totalité qui les représente et à laquelle ils s’identifient ». Le calcul « toutes choses égales par ailleurs » prôné dans les années 70 ne prend pas en compte la poussée de l’individualisme et des regroupements communautaires.

    Les premières expériences de Big Data le montrent, la représentation sociale se fait par le bas, via les traces digitales, la combinatoire est quasi infinie selon le sujet, et est en partie liée au média « d’échange ».

    Avant de se flageller, je pense qu’il faut faire preuve de raison.

    1-    Un échantillon « structuré » sur les variables ayant un impact sur l’objet de la mesure sera toujours plus « parlant » qu’une collecte  aléatoire sur un média quelconque (un « crawl » sur le web par exemple), aussi grand soit-il. En effet cette collecte « anonyme » va recueillir des traces au sein d’une même communauté où la gémellité est forte, et donc la variabilité (ou variance) des propos faible.  Il faut toutefois ne pas oublier de faire une bonne recherche exploratoire afin d’isoler les vraies variables discriminantes (le bon socio-démo, le bon comportement).

    2-    L’idéal (à mon sens) tendrait à s’articuler autour d’une collecte représentant à la fois les dites-variables, et également les supports de communications utilisés prioritairement par les cibles visées. On l’a appelé un moment les « mix-méthodologies », qui se proposaient d’utiliser différentes méthodes de collecte au sein d’un même projet. Cette dimension « support  d’échange» est la composante trop souvent absente. Il faut utiliser le média, le « touch point » avec lequel le futur interrogé se sent le plus à l’aide et en confiance pour le faire parler.

    3-    Il nous manque encore un peu de « Research-on-Research » sur la meilleure façon d’agréger la multiplicité des outils de collecte, mais c’est une piste à explorer. On le voit bien, on le sent. 

    En résumé, n’hésitons pas à combiner et réconcilier l’ancien monde traditionnel des études avec notre nouvel univers digital, et la multiplication des sources croisées par les critères sociodémographiques  / équipement / comportementaux nous aidera dans notre quête de représentation de la société actuelle. 

    Pas facile, mais l’image de notre industrie en a besoin. 


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Bruno Colin

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Méthodologie / Point(s) de vue /
  2. (Micro)portrait : Françoise Waintrop, ajointe au chef du service Stratégie Interministérielle de Modernisation

    21 janv. 2016

    La recherche marketing est le plus souvent associée à l’écoute des consommateurs dans des domaines tels que ceux de la grande consommation, de l’automobile, des services du quotidien… C’est un tout autre univers que nous découvrons ici avec Françoise Waintrop : celui des ministères, avec l’enjeu de la modernisation de leur mode de fonctionnement.

    Pourquoi, comment en arrive-t-on à ce type de fonction ? Avec quelle vision de l’univers des études ? C’est ce que nous vous proposons de découvrir avec le nouvel opus de cette série de micro-portraits.

    MRNews : Vous travaillez aujourd’hui dans les services du Premier Ministre. Quelle est plus précisément votre fonction ?

    Françoise Waintrop : Je travaille au sein du Secrétariat général pour la modernisation de l’action publique , en tant qu’adjointe au chef du service Stratégie Interministérielle de Modernisation. L’intitulé est un peu long, mais ma mission - et celle de ce service - est somme toute très simple à énoncer : il s’agit d’aider l’administration à se moderniser. Le périmètre que cela recouvre est néanmoins assez large : l’évaluation des politiques publiques en fait naturellement partie, ainsi que les enjeux de qualité de service et d’innovation. L’idée générale étant bien de promouvoir des méthodes plus innovantes dans le fonctionnement des ministères et de la fonction publique.

    Y compris j’imagine dans l’écoute des citoyens ?

    Absolument.  Le simple fait d’amener les ministères à plus se poser la question de cette écoute est extrêmement important. C’est un changement culturel en marche depuis déjà quelques années mais qui doit naturellement se poursuivre. Nous travaillons aussi à une forme d’écoute des citoyens un peu particulière, avec les enjeux de participation citoyenne. Et nous sommes vraiment très imprégnés de ce qui relève de l’économie comportementale, avec la mise en œuvre de chantiers de type « Nudges ».

    Quelles ont été les grandes lignes de votre parcours professionnel ?

    J’ai été chargée de mission à la Direction interministérielle à la réforme de l’Etat, puis chef du département Recherche, Etudes et Veille à l’Institut de la gestion publique et du développement économique. J’ai ensuite passé un peu de temps à l’Institut Universitaire d’Hématologie, en tant que Secrétaire Générale. Et depuis 2008, je travaille dans les services du Premier Ministre, sur ces enjeux de modernisation de l’action publique.

    Le service du public est la grande constante de votre parcours…

    Oui. C’est un domaine qui n’en finit pas de m’enthousiasmer ! Mais en vérité, je crois que la constante un peu cachée est mon inclinaison à m’occuper de problèmes un peu complexes, ceux dont personne ou presque ne veut se charger. C’était flagrant au moment où j’ai repris un département universitaire qui était réellement en train de sombrer. J’aime quand il faut mettre en place de nouvelles façons de fonctionner.

    Qu’est-ce qui vous a amené à vous intéresser à cet univers ?

    C’est vraiment le hasard de la vie. Lorsque j’étais étudiante à l’université, j’étais très attirée par l’Italie, je voulais vivre là-bas… où là-haut comme le dirait Casanova ! J’avais besoin d’un peu d’argent pour cela. J’ai donc enchainé des petits boulots à l’université, puis j’ai effectué un remplacement un peu plus long que les précédents. Et de fil en aiguille, je me suis retrouvée à passer un concours. Mais cela s’est fait parce que j’étais en contact avec cet univers-là, et parce que j’étais au courant du fait qu’un poste intéressant se libérait.

    Votre formation vous prédestinait-elle au Service Public, ou bien à cette écoute des citoyens qui est très présente aujourd’hui dans votre fonction ?

    Le hasard n’est jamais total ! Le fait est que j’ai suivi des études de psychologie. Je me suis d’abord intéressée au domaine de la pathologie de l’adulte, puis j’ai continué le cursus de psychologie sociale. Je trouvais cela passionnant, y compris la partie spécifiquement Etudes. J’ai ainsi fréquemment réalisé des terrains d’études. Et ensuite, toujours en lien avec l’Italie, je me suis intéressé aux sciences politiques. J’ai donc une maitrise et un DEA de Sciences Politiques en complément de ma maitrise de Psycho.

    Quelle est l’expérience qui vous a paru la plus forte, la plus intéressante dans votre parcours ?

    C’est toujours la dernière, celle qui est en cours qui est la plus passionnante. Ce que je fais ici, aujourd’hui, avec le Nudge et l’écoute des usagers, c’est réellement enthousiasmant. On a vraiment le sentiment de faire avancer les choses. Le fait d’être fonctionnaire donne une forme de liberté appréciable, avec la possibilité de connaître des expériences très différentes les unes des autres. Cela permet de découvrir de nouveaux domaines en fonction de sa curiosité intellectuelle et de sa capacité à s’y immerger. Je veux parler d’une curiosité qui ne correspond pas à quelque chose de superficiel mais plutôt à une forme d’engagement, comme c’est le cas aujourd’hui avec l’économie comportementale. La logique étant que cette curiosité soit au service des autres, qu’elle donne lieu à développer une compétence utile. Derrière toutes ces expériences, il y a bien toujours cette même logique de faire avancer les choses, d’intéresser les gens et les amener à s’approprier de nouvelles façons de faire.

    Des rencontres importantes ont marqué votre parcours ?

    Oui, clairement. Je pense par exemple à une personne comme Gilbert Santel, que j’ai connu en tant que directeur à la direction interministérielle de la réforme de l’Etat. C’est quelqu’un d’extrêmement charismatique, avec une formidable énergie. Ce qui me fascinait beaucoup aussi chez lui, c’était sa capacité, tout en étant très exigeant, à pouvoir sortir du cadre sans trop se prendre au sérieux, avec une vraie capacité d’échange avec les gens, quels que soient leurs statuts ou leurs fonctions.

    Que feriez-vous si vous ne faisiez pas ce métier-là ?

    Je pense que j’aurais créé mon entreprise. Peut-être dans le domaine de ce que l’on appelle aujourd’hui l’économie sociale et solidaire. Ou bien encore dans le domaine du marketing et de la communication publicitaire. C’est un domaine qui m’intéresse toujours, comme celui de la production audiovisuelle.

    Revenons à l’univers des études et de la recherche marketing. Que changeriez-vous de ce petit monde si vous aviez une baguette magique ?

    Je ne connais pas parfaitement cet univers. Mon sentiment dominant est d’avoir affaire à des grosses structures qui n’évoluent pas tant que cela, et avec lesquelles il est difficile d’avoir des liens de partenariat. Je pense donc qu’il y a une relation à ré-inventer. Il y aussi à mon sens un certain manque de réflexion, de mise en perspective. C’est le prisme de l’outil technique qui l’emporte. Ces critiques et les évolutions que cela pointe s’appliquent sans doute moins aux petites structures. Nous travaillons encore assez peu avec celles-ci, mais nous allons nous organiser pour changer cela.

    Vous l’avez évoqué, le Nudge est aujourd’hui très présent dans votre travail…

    Absolument ! Je suis à 200% convaincue de l’intérêt du Nudge et de l’économie comportementale. C’est vrai qu’il y a une forme d’évidence dans ces approches. Il est clair que les politiques publiques actionnent principalement les leviers de la rationalité, alors même que nos décisions sont pour une large part irrationnelles. Cela ouvre donc la voie à un renforcement parfois spectaculaire de l’efficacité de nos actions. Notre intérêt pour le Nudge est concret, c’est un champ que nous nous sommes complètement approprié et sur lequel nous avons construit notre propre réflexion.

    La fonction publique n’a pas une image d’une grande modernité… Alors même qu’avec l’usage du Nudge, vous n’êtes certainement pas en retard par rapport à ce qui se pratique dans l’univers du privé. Ces considérations d’image constituent un enjeu important pour vous ?

    Oui, clairement. Mais en même temps, c’est un fait : la modernité des fonctionnements reste hétérogène en fonction des administrations. Derrière cela, il y a des contraintes, la difficulté particulière qu’implique la gestion des grandes masses ; et aussi - en dépit des apparences - des moyens qui ne sont pas si énormes que cela. Et il y a bien sûr des composantes culturelles, la vocation de notre service étant précisément de changer cela, d’insuffler cette modernité en nous appuyant sur le numérique et en tenant compte des facteurs humains. Comparativement à ce qui peut se passer dans le privé, nous avons cependant un avantage important : nous n’avons pas de concurrents ! Cela signifie que pouvons développer des collaborations extrêmement efficaces avec nos collègues d’autres pays, que ce soit au sein de l’Europe ou de l’OCDE. Lorsqu’un pays est fort dans un domaine, il explique aux autres ce qu’il fait. Cela nous permet d’aller parfois très vite !

    Un dernier mot enfin sur MRNews. Est ce qu’il y a des articles par exemple qui vous ont particulièrement intéressés ?

    Tous les articles ne me parlent pas, parce qu’ils concernent des univers qui me sont parfois étrangers. Mais les dossiers mensuels sont souvent très intéressants ; je pense en particulier à celui que vous avez consacré à l’enjeu de la représentativité, qui est à repenser en tant que concept. On apprend réellement des choses en découvrant les différents points de vue. Mais cela nous conforte aussi dans certaines réflexions que nous pouvons avoir de notre côté, et dans le fait que nous ne sommes peut-être pas si ringards qu’on veut bien le croire !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Françoise Waintrop

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession / Micro-portraits /
  3. Data analytics, big data : le temps du pragmatisme et du décloisonnement – Interview de Thibaut Lagorce, directeur Consulting de Socio Logiciels

    19 janv. 2016

    C’est bien connu, le propre de tous les sujets nouveaux est de déclencher une succession de cycles bien particulière : du scepticisme, puis un engouement plus ou moins raisonné, auquel succède une phase possible de déception, avant que ne vienne le temps du pragmatisme et de l’action…

    Qu’en est-il donc de la posture des entreprises sur ces sujets que sont l’analyse des données et le Big Data ? Comment évoluent leurs besoins ? Ce sont les questions que nous avons posées à Thibaut Lagorce, Directeur Consulting de Socio Logiciels (groupe NP6), qui nous fait partager sa vision ainsi que les choix stratégiques effectués par sa société pour s’adapter à ces évolutions.

    MRNews : La data ! la data ! la data ! Les médias ne cessent de mettre en avant l’importance clé de ce sujet - et de celui de la big data - pour les entreprises. Depuis un an ou deux, voyez-vous des évolutions significatives quant à la posture des entreprises sur ce sujet ?

    Thibaut Lagorce : Notre constat est que les entreprises, dans leurs problématiques, décloisonnent de moins en moins data intelligence et marketing opérationnel. En d’autres termes, la priorité des entreprises n’est plus la connaissance client mais l’activation client, la connaissance client devenant un levier d’activation indispensable. Elles sont donc plus pragmatiques dans leurs interrogations et plus ROIstes dans leur approche. C’est particulièrement vrai pour les entreprises qui ont des marges serrées : elles sont prêtes à investir dans la data mais de manière plus itérative, et se rendent compte qu’avant de mettre en place une DMP (Data Management Platform), il faut avoir des éléments tangibles de gains opérationnels mesurables.

    Interviewé il y a un an sur ce thème, Simon Pioche faisait le pari qu’après une phase d’engouement, il fallait s’attendre dans un second temps à ce qu’il y ait une forme de déception, liée à la difficulté pour les entreprises à réellement passer à l'acte et à tirer quelque chose d’utile de la big data. Voyez-vous des signes de cette déception ?

    Les early adopters qui ont lancé des projets Big Data étaient plutôt des entreprises avec des gros moyens. Il y a donc eu des gros projets, avec des coûts et des effets tunnels importants. En 2016, on entre dans la seconde phase, une phase de démocratisation. Les premiers business cases montrent qu’une DMP a d’abord pour objectif de réduire les coûts d’acquisition plutôt que d’accroître le chiffre d’affaires.

    L’analyse de la donnée est le coeur de compétence historique de Socio Logiciels. Mais l’importance accrue de cet enjeu pour les entreprises change la donne, j’imagine. Quelle est donc la stratégie d’offre de Socio Logiciels pour tenir compte de ce changement de contexte (avec les évolutions induites / besoins des entreprises) ?

    Il nous a fallu redéfinir notre offre pour nous adapter. Nous avions les compétences, mais la façon de les présenter ne coïncidait plus avec les besoins des entreprises, entraînant parfois un dialogue de sourds. Quand on a un métier d’expertise, on a tendance à mettre en avant ce que l’on sait faire en détaillant ses compétences techniques. Or ce qu’attendent nos clients, c’est d’être rassurés sur notre capacité à répondre à leurs problématiques métiers et à leur apporter de la valeur ajoutée.

    Nous avons ainsi décliné notre savoir-faire au travers de 6 offres complémentaires :

    -       Le traitement et l’analyse d’enquêtes quantitatives, notre métier historique, où nous avons factorisé notre savoir-faire pour développer des outils innovants permettant à nos clients d’être plus autonomes : nous faisons évoluer notre croiseur Crom Web, nous avons développé Socio Panel, une solution clé en main permettant à nos clients d’interroger leurs communautés de clients sur des problématiques divers, et nous sortons très prochainement notre dernier-né, un simulateur bayésien pour les enquêtes barométriques permettant de transformer l’analyse bayésienne en véritable outil opérationnel de prise de décision et qui ne nécessite aucune compétence statistique.

    -       Le data management pour rapprocher des données hétérogènes multi-sources

    -       La connaissance client et toutes les problématiques autour du marketing prédictif qui est le sujet en vogue actuellement

    -       Le géomarketing, un sujet sur lequel nous innovons beaucoup grâce à la recherche opérationnelle, l’enrichissement open data et les nouveaux outils online de data visualisation

    -       La recherche opérationnelle, qui est une offre quasi unique en France sur les sujets marketing

    -       La data visualisation avec comme problématique de transformer des rapports d’analyse statiques de plusieurs centaines de pages en outils interactifs et dynamiques comme Chord Explorer.

    Et enfin sur l’ensemble de ces offres nous apportons du conseil et de la formation.

    Socio Logiciels a récemment renforcé ses compétences en termes de recherche. Avec l’intégration de Julien Autuori et Nourredine Tabia, puis celle de Laura Brocco en tant que directrice scientifique. Pourquoi ces recrutements ? Quels sont les bénéfices à en attendre pour vos clients ?

    Julien et Nourredine sont docteurs en mathématiques, spécialisés en recherche opérationnelle (RO), une branche des mathématiques. La RO rassemble des techniques d’optimisation sous contraintes et trouve des applications aussi bien dans les médias pour l’optimisation des investissements sur les différents supports que dans le géomarketing sur l’optimisation du maillage d’un réseau de points de vente, ou encore dans le marketing opérationnel pour l’optimisation de la planification de campagnes marketing.

    Sous la direction de Cédric Hervet, Julien et Nourredine travaillent à la fois sur des projets clients et sur l’intégration d’algorithmes d’optimisation dans la plateforme marketing MailPerformance de NP6. Ces algorithmes vont révolutionner la manière de faire des campagnes marketing.

    Laura Brocco, quant à elle, est notre nouvelle directrice scientifique. Elle encadre l’équipe data, apporte sa compétence scientifique et impulse une nouvelle dynamique dans l’utilisation de méthodes statistiques issues du monde des étoiles puisqu’elle est docteur en astrophysique.

    Tous ces profils très différents apportent une énorme richesse de vues. Il y a une très forte émulation, les idées innovantes fourmillent et  certaines sont déjà en cours de mise en œuvre.

    Une des hypothèses les plus souvent énoncées quant à l’évolution des études marketing est celle d’une forme « d’explosion » : une recomposition assez radicale du paysage, avec un marché et donc une zone de concurrence beaucoup plus large que par le passé. Partagez-vous cette vision ?

    La manière dont les entreprises envisagent leur développement est en train de changer. Aujourd’hui, on est de plus en plus dans la co-création de produits et services avec le client. Avec les réseaux sociaux, on est passé à un marketing conversationnel entre les marques et les clients. Celles-ci n’hésitent plus à demander leur avis à leurs clients et veulent avoir des réponses à leurs questions en quelques jours. Il leur faut donc des outils. D’où l’émergence de nouveaux acteurs, qui proposent des panels en ligne, des outils de création de questionnaires en ligne, des outils d’analyses en ligne… Finalement, ceux qui prendront l’avantage sont ceux qui seront capables de fournir une plateforme complète et intégrée pour rendre les marques le plus autonome possible.

    Il y a toujours eu une forme de barrière entre le monde des études marketing et celui du marketing opérationnel. Pensez-vous que cette barrière fasse encore sens ? 

    Le pire c’est que cette « barrière » est aussi appliquée aux données. Beaucoup d’entreprises fonctionnent encore en silo, chaque département travaille sur ses propres données, d’un côté les données d’études, de l’autre les données transactionnelles et les deux sont rarement croisées. Et même au sein des directions marketing,  il y a parfois un cloisonnement entre ceux qui travaillent la donnée pour en tirer de la connaissance et ceux qui mènent les actions marketing. Chez NP6, notre vision est que la chaîne de valeur doit être intégrée et automatisée de la data à l’action.

    L’intégration de Socio Logiciels au sein de NP6 (qui est un acteur clé en France de l’édition de logiciels) remonte à déjà quelques années. Qu’est ce que cela a changé dans la culture et dans l’offre de Socio ?

    Cette intégration a permis de dégager beaucoup de synergies : d’un point de vue commercial, nous faisons beaucoup de cross selling, de plus en plus d’entreprises sont clientes NP6 et Socio.

    D’un point de vue technique, les logiciels de Data Intelligence développés par Socio sont dorénavant systématiquement intégrés dans la plateforme logicielle NP6, ce qui permet de réutiliser des fonctions communes. Ces logiciels sont aussi hébergés dans l’infrastructure NP6 dans un data center ultra sécurisé situé en France avec plus de 200 serveurs et nos clients bénéficient du savoir-faire de NP6 en terme de support client.

    Enfin, en terme d’offre, nous apportons une réponse plus globale aux directions marketing, de l’analyse de la data à son activation opérationnelle. Notre ambition est de créer la première plateforme marketing conversationnelle multi-canal.

    Depuis quelques mois, vous dirigez le consulting de Socio Logiciels. Qu’est ce qui vous fera considérer que vous avez rempli votre feuille de route d’ici à deux ou trois ans ?

    Quand nos clients se focaliseront sur le « comment » et sur le « quoi » plutôt que sur le « pourquoi ». La connaissance client n’est pas un but en soi, c’est un moyen de parvenir à l’action. Nous aurons réussi notre mission quand la connaissance client sera devenue sous-jacente et que les objectifs des entreprises porteront davantage sur l’activation des clients que sur la connaissance.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @tlagorce

    • Retrouver Thibaut Lagorce aux NP6 Marketing Insights le 28 janvier à Paris.

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession / Data analytics, big data /
  4. Les 5 tendances clés pour 2016 – La vision d’Ipsos France (Trend Observer)

    18 janv. 2016

    Quelles seront donc les quelques grandes tendances qui vont imprégner et modeler les évolutions de notre société dans l’année à venir ? C’est la question, difficile s’il en est, à laquelle répond chaque année Ipsos, et plus particulièrement l’équipe Trends & Prospective dirigée par Thibaut Nguyen (Ipsos Public Affairs), avec son outil Trend Observer.

    Sur la base de cette étude internationale (USA, Japon, France, Royaume-Uni et Italie)  mixant différentes sources d’observation et d’analyses, 5 grandes tendances se dessinent cette année.

    S’accomplir !

    Si la clé de voute de l’année 2015 avait été résumée par les experts d’Ipsos comme étant celle de l’Age du Faire, un glissement important se produit selon eux en 2016. Le « faire pour faire » et l’obsession de l’action à tout prix glisse en effet vers un autre « faire », marqué du sceau de l’accomplissement des individus.

    « Je veux redonner un sens à ma vie, je redeviens maitre de mon temps et je réinvestis le réel ». C’est dans ces termes que s’exprime en effet l’aspiration dominante des trendsetters de l’étude réalisée par Ipsos.

    Construire sa propre digue.

    Mais ce besoin d’accomplissement intervient dans un environnement chaotique, un contexte où tout un chacun se doit de composer avec un certain nombre de changements de tous ordres et de flux, qu’il s’agisse de celui de l’information… ou des populations

    L’accomplissement passe donc par la nécessité pour les individus d’élaborer leurs propres digues, à la fois pour se défendre de possibles agressions extérieures, reprendre son souffle, mais aussi pour mieux suivre son propre cap en tirant le meilleur parti des opportunités dont ces flux sont synonymes.

     

    5 tendances clés dans les aspirations des individus

    A partir ces éléments clés, les comportements des individus devraient être drivés par 5 tendances selon Ipsos France

    -       Accomplir sa mission

    -       Mettre des filtres

    -       Augmenter ses capacités

    -       Trouver sa magie

    -       Eprouver le réel

     

    Trend Observer 2016 : La Vague et la Digue - Version sans commentaire from Ipsos-France on Vimeo.

    Les 4 impératifs pour les marques

    Dans ce contexte, 4 impératifs prennent une importance toute particulière pour les marques.

    Donner plus de consistance à la mission de la marque, plus d’évidence quant à son utilité

    Comme en écho à leur propre recherche, celle d’une plus grande cohérence entre leur existence et la voie de leur accomplissement, les trend-setters attendent des marques certes qu’elles garantissent la qualité de leurs produits, mais aussi qu’elles apportent le supplément d’âme qui fera la différence et d’une certaine façon éclairera leur propre quête.

    Dans ce contexte, il n’est pas question pour les marques de se présenter comme détentrice d’une autorité hors de propos et d’imposer des normes, mais plutôt de manifester les signes de leur authenticité, quitte notamment à mettre en avant leurs fondateurs en gage de leur incarnation et de la passion qui les anime.

    Ne pas saturer le consommateur

    Une des conditions pour les individus d’aller dans le sens de leur accomplissement, nous l’avons évoqué, est de se créer des systèmes de protection face aux flux qui se présentent à lui, parmi lesquels ceux générés par les marques. Ceux-ci éprouvent fondamentalement le besoin de maitriser leur connection au monde.

    Une leçon claire émerge donc pour les marques : ne surtout pas saturer les consommateurs, et s’inspirer au contraire de la règle du Less is More, afin de d’insérer avec la plus grande fluidité possible dans le rythme que les consommateurs se définissent eux mêmes.

     Répondre aux besoins d’émotions et d’inspirations positives

    Le besoin de s’accorder plus de temps « physique » et non-connecté s’accompagne chez les individus d’une recherche d’ancrage dans le réel, nous disent les experts d’Ipsos. Le temps qui est ainsi gagné sur la sphère digitale et réinvesti dans le réel et ses rencontres est vécu comme des « moments VIP ». « Dans ce contexte de recherche de sens, exprimer ses émotions et ressentir celles de l’autre sont des petits luxes » explique Thibaut Nguyen.

    Les marques doivent donc répondre à ces aspirations, intégrer ce besoin d’une réelle interaction, humaine et qualitative. Faire en sorte que l’expérience client soit satisfaisante et réussie dans sa dimension physique est donc essentielle, et bien sûr au premier chef sur le point de vente.

    Trouver sa place.

    L’impératif méta pour la marque est donc de trouver sa place pour séduire ses consommateurs bâtisseurs de leur propre vie. Elles doivent donc prioritairement optimiser la relation client, et même idéalement aider les consommateurs à réaliser leur mission de vie.

    D’une certaine façon, dit Thibaut Nguyen, c’est aux marques de trouver des consommateurs aspirationnels auxquels elles doivent êtres fidèles, et non l’inverse. Après « l’homo-consumeris », nous serions ainsi selon sa propre formule en train de voir advenir une nouvelle ère, celle de « l’homo-cliens » !


     POUR ACTION 

    Commenter 

    • Contact(s) : @ Thibaut Nguyen 

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Résultats d'études /
  5. La représentativité des études : un enjeu d’actualité ou un combat d’arrière garde ? Le point de vue d’Hervé Tranger et Thierry Vallaud (BVA)

    18 déc. 2015

    A l’heure où les Big Data deviennent chaque jour un peu plus présents dans la démarche de construction de l’intelligence marketing, faut-il revoir la copie quant à l’importance de la représentativité des études ? Et si oui selon quel cheminement intellectuel pour atteindre l’opérationnalité maximale du marketing sans tomber pour autant dans l’aveuglement ?

    En complément de notre dossier du mois sur ce thème, voici le point de vue que nous proposent Hervé Tranger et Thierry Vallaud, respectivement directeur Méthode et Process et directeur du Département Data Sciences du groupe BVA

    POINT DE VUE : Hervé Tranger (directeur Méthode et Process du groupe BVA) et Thierry Vallaud (directeur du Département Data Sciences du groupe BVA)

    Avec l’avènement des Big Data, la volumétrie des données a tendance à remettre en question le concept de représentativité. Souvent utilisé, rarement interrogé, ce concept est-il toujours aussi fondamental qu’il ne l’était par le passé ?

    La représentativité, c’est le contrôle de la structure de l’échantillon sur différentes variables au regard d’une référence donnée. Elle permet d’analyser des mesures issues d’un échantillon en autorisant la comparaison avec d’autres mesures issues d’échantillons ayant la même structure. Elle permet également d’inférer les résultats observés sur un échantillon à sa population de référence.  C’est la nature de la mesure analysée qui dicte la notion de représentativité et au-delà de leur nombre.

    Un bon échantillon 1000 cas NatRep (national représentatif sur les variables Sexe, Age, CSP région et taille d’agglomération) apporte la caution « scientifique » pour extrapoler et diffuser les résultats d’un sondage. Mais que penser par exemple d’une enquête sur l’école dans laquelle la variable de structure familiale n’est pas contrôlée ?

    C’est là que nous allons vous surprendre en allant à l’encontre du discours dominant. Une grosse base donnée n’est représentative que d’elle-même et il faut en avoir bien conscience. La base de données des clients qui ont la carte d’un magasin de 5 M d’individus est un sous-ensemble qui n’est pas représentatif de l’ensemble des clients de cette enseigne et cela malgré cette taille « impressionnante ». La gigantesque base de Facebook, le plus souvent des personnes qui postent des photos de chatons sur leurs profils, ne représente pas la culture dominante comme on voudrait nous le laisser croire : même si nous trouvons tous les chatons « très mignons » et les réseaux sociaux de magnifiques outils de communication

    Pourtant la représentativité n’est pas toujours l’objectif premier d’un échantillonnage. Dans une démarche de segmentation ou de typologie, la première qualité du jeu de données recherchée par l’analyste est la dispersion des profils de répondants. Ce n’est qu’en phase finale de la démarche, lors de la mesure du poids des segments ou des groupes, que la notion de représentativité est réintroduite. La représentativité est pertinente pour construire des mesures, des indicateurs qui pourront être comparés entre eux, mais elle devient mois utile pour analyser et comprendre des comportements individuels.

    Avec le « tout data », la donnée individuelle, plus nombreuse, plus accessible, a permis de considérablement développer les analyses sur les profils et les comportements des individus. Cette évolution permet l’émergence du marketing de l’individu : en agissant au niveau de granularité la plus fine, l’individu, nul besoin de remonter à la population de référence pour réaliser des actions sur tous ou quelques segments.

    Mais à force de raisonner sur l’individu, il est tentant de généraliser les comportements individuels dans un grand tout qui n’est qu’une somme d’individualité. Le danger, réel, est alors d’oublier ce que représente la base sur laquelle on agrège : d’oublier la notion clef de représentativité. Dans cette seconde approche « individuelle » on ne prend plus de recul et on risque de prendre un effet marginal pour une loi générique. Mais les protagonistes un peu simplificateurs du big data disent « les corrélations suffisent, à quoi bon comprendre les causes » : si l’on  prend cette affirmation  au premier degré le calcul du nombre de parapluies ouverts permet d’en déduire qu’il pleut !! C’est vrai, mais où est la compréhension  de la cause ? Face à cela, les études ont longtemps été un moyen de réaliser des mesures sur des échantillons « représentatifs » des citoyens, des consommateurs, des clients. Inspirée par la sociologie, cette démarche a nourri le « marketing de masse » dans un premier temps, puis un marketing du ciblage. 

    Etre déjà capable de se poser ce type de questions est à notre avis indispensable à tout démarche analytique et signe de maturité. La bonne démarche analytique c’est de ne pas opposer les deux approches, mais de miser sur leur complémentarité en  échantillonnant des grosses bases de données en sous-échantillons représentatifs pour vérifier les phénomènes observés : bien sélectionner des échantillons raisonnés pour s’assurer de la représentativité des analyses.

    Par exemple, le modèle de Google basé sur le search de la grippe ne marche pas à tous les coups pour prédire avec exactitude la propagation de la grippe. Il est nécessaire de redresser, de pondérer avec d’autres sources, de réfléchir plus pour aboutir à des résultats plus pertinents. Le développement des mesures « à chaud » ne se soucie pas de la généralisation de l’information, les épiphonèmes suffisent si c’est rapide et pas cher, si c’est simple et visuel. La plupart des sociétés multinationales qui analysent le contenu du web social commence aujourd’hui leur réunion en proposant un échantillon des verbatim sur un sujet donné pour bien étudier un phénomène précis sur la toile. Pourtant il n’y a pas si longtemps les mêmes parlaient d’exhaustivité pour mesurer des signaux faibles. Les mentalités évoluent.

    Cette évolution reflète un positionnement épistémologique qui devrait être celui des instituts garant du sens de ce qu’il mesure .que la données soient « small » ou « big ». Ces mesures représentent une avancée phénoménale dans la gestion de la relation client par une accélération de la réactivité des acteurs. Cette tendance, qui permet d’améliorer le déploiement opérationnel des orientations marketing, présente un risque d’aveuglement lié au suivi des KPI en temps réel.

    Ceci ne peut avoir de sens que s’il s’inscrit dans une stratégie pensée, priorisée, évaluée, étape pour laquelle le sens apporté aux mesures, et donc la bonne représentativité des mesures, restent selon nous indispensable. Les différentes approches ne s’opposent pas elles se complètent. Toute analyse basée sur des données présente des marges d’erreur. Contrôler la précision des mesures, c’est limiter les risques d’erreur dans les prises de décision

    Ce questionnement méthodologique systématique sur la représentativité c’est un savoir-faire reconnu du market research. Il faut le mettre en avant car plus que jamais il est utile.  Il ne faut pas cesser de le rappeler, c’est éthiquement très important pour nous, pour vous et pour la société dans son ensemble.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Hervé Tranger  @ Thierry Vallaud

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Méthodologie / Point(s) de vue /
  6. Syntec Etudes a récompensé les lauréats de la 9ème édition du Trophées des Etudes.

    16 déc. 2015

    Avec le soutien de la fédération Syntec et du Ministère de l’Enseignement Supérieur et de la Recherche, Syntec Etudes a décerné quatre trophées aux étudiants issus d’écoles ou d’universités françaises ayant réalisé une étude marketing ou opinion. Agrémentée d’une table ronde de partage d’expérience et du témoignage de Richard Bordenave (BVA) sur l’approche Nudge, la cérémonie s’est déroulée il y a quelques semaines avec près de 150 étudiants, professeurs et professionnels des études.

    Philippe Bourrat (Ducker Worldwide), qui compte parmi les administrateurs de Syntec Etudes, répond aux questions de MRnews.

    MRNews : Syntec Etudes a récompensé il y a quelques jours les lauréats de sa 9ème édition des Trophées des Etudes. Quelle est la raison d’être de cet événement ?

    Philippe Bourrat : Les Trophées des Etudes s’inscrivent très logiquement dans le champ des initiatives de Syntec Etudes. Notre vocation est de promouvoir le métier des études auprès d’un large spectre de parties prenantes : sociétés d’études, pouvoirs publics, clients potentiels, et monde universitaire (et écoles). L’idée du Trophées est justement de contribuer à développer nos bonnes relations avec le monde universitaire, donc avec les étudiants, qui sont l’avenir de notre métier, futurs employés ou clients. Les Trophées sont une forme d’encouragement de sorte à ce qu’ils s’impliquent dans notre univers et développent des bonnes pratiques. Cela les met en valeur et leur permet aussi d’ établir des connexions intéressantes avec les entreprises. Nous-mêmes et plus largement les jurys qui travaillent dans le cadre de ces Trophées sommes là pour apporter des conseils aux étudiants; mais nous sommes également très intéressés par la justesse de leurs idées ou l’originalité de leurs approches. Cela nous aide dans notre propre réflexion. Il s’agit donc bien d’un principe d’intérêt réciproque, autour du métier des études.

    Concrètement, comment ces Trophées sont-ils organisés ? Je crois que 56 mémoires ou rapports de stage ont été présentés ?

    Ces Trophées s’adressent aux étudiants d’université (Master professionnel ou de recherche) ou des grandes écoles, de niveau M1 ou M2, ayant réalisé une étude lors de leur mémoire, ou tout autre travail de recherche dans le cadre de leur formation. Les rapports de stage sont également autorisés à concourir, sous réserve d’un accord de l’entreprise ou d’une anonymisation. Les étudiants intéressés adressent leurs travaux après accord de leur professeur avec naturellement une deadline à respecter. Et ceux ci-font l’objet d’une évaluation en deux temps : Il y a une présélection, à l’issue de laquelle cette année les 56 travaux ont abouti à 15 nominations. La phase finale est donc celle de la soutenance orale, qui s’est déroulée le 17 novembre, auprès de jurys mixtes.

    Qui sont représentés dans ces jurys ? Et quels sont donc les critères d’évaluation ?

    Chaque jury comporte 8 à 9 personnes, avec un bon équilibre entre des membres du monde universitaire et des professionnels des études. Pour ce qui est des critères, nous nous en tenons à une batterie relativement classique dans notre univers : la qualité d’expression de la problématique, le recueil des données et la pertinence de la méthode utilisée, l’expression orale/présentation, la formulation des recommandations et la pertinence des réponses aux questions. Nous sommes donc à la fois attentifs au contenu, à la forme et la qualité de l’interaction, c’est assez proche d’une situation réelle en clientèle. Chaque membre donne ainsi des notes sur ces différents critères, celles-ci étant moyennées pour récompenser les meilleurs travaux.

    4 travaux ont donc été primés cette année…

    Absolument. Pour ce qui est de la catégorie Mémoire M1, nous avons distingué le travail de Claire Bourneuf, sur le thème « Comment regardes-tu la télévision aujourd’hui ? ». Pour les mémoires de type M2, le premier prix a été accordé à Joanna Stroz, sur le thème du Marketing mobile et des techniques mobile in store ; et le second à un collectif composé de Emelines Bouches, Lucile Ceci et Silvia Colombo, qui ont elles travaillé sur les Produits Partage et leurs perceptions par les donateurs associatifs. Et enfin pour la catégorie Stage et Autres Recherches en M2, le prix est revenu à Anne-Cécile Lafourcade, sur le thème de l’audience de Twitter et du défi de l’exhaustivité.

    Les filles ont été largement récompensées ! J’imagine pourtant que cela n’est un critère d’évaluation des travaux. Sur quels critères se jouent plus particulièrement la différence ?

    De fait, le principe est vraiment que ce soient les meilleurs travaux qui soient récompensés, qu’ils émanent de garçons ou de filles. Les Jurys étaient eux même mixtes. Pour ce qui est des critères, tous ceux que nous avons évoqués sont importants. Les présentations orales notamment étaient d’un bon niveau, avec une relative homogénéité. Les écarts sont sans doute plus importants sur les aspects méthodologiques, auxquels les professionnels présents dans les jurys ont été particulièrement attentifs. C’est assez logique, c’est la base même de nos métiers, la solidité des faits est une condition sine qua non de la qualité des recommandations et de la démarche d’ensemble…

    Au travers de la nature des travaux qui ont été présentés par les étudiants, des tendances se dégagent-elles quant aux thématiques d’études ou à la façon de les traiter ?

    Les travaux présentés étaient variés, avec des études qualitatives ou quantitatives. On voit néanmoins un intérêt certain pour les thèmes relatifs aux nouvelles technologies médias et aux médias. Pour ces derniers, on a pu voir que les étudiants s’y intéressaient à la fois comme medium à étudier, corpus à utiliser (comme avec Tweeter par exemple), ou sur l’angle de savoir comment les utiliser pour faire du marketing….

    Est-ce que l’on trouve écho, dans les travaux des étudiants, à ce phénomène général de déport du centre de gravité des préoccupations : une plus forte importance accordée à l’analyse des données et une moins grande focalisation sur les enjeux de recueil ?

    De fait, les étudiants ont beaucoup utilisé le recueil on line, en étant conscients des biais que cela pouvait représenter dans certains cas mais en exploitant l’avantage de pouvoir disposer de tailles d’échantillon solides. J’ai été frappé en effet par la forte présence des approches de modélisation, qui peut traduire le point que vous évoquez. On voit également des questions intéressantes sur des aspects qui traduisent un certain recul par rapport aux données : je pense notamment au travail qui a pu être fait sur la sincérité des réponses des interviewés dans certains contextes d’études.

    La question n’est pas facile… Mais si vous ne deviez utiliser qu’un seul mot pour résumer votre sentiment quant à la teneur générale de cet événement, lequel serait-ce ?

    Je crois que ce serait le terme d’intelligence. Au travers de la diversité et de la qualité des travaux qui ont été remis et des séances d’échange, ces étudiants, les nommés et la plupart des nominés ont fait preuve de grandes qualités d’implication, de rigueur et de créativité. Cette notion d’intelligence, on la trouve un peu partout ; dans les échanges de la Table Ronde, où les jeunes professionnels étaient invités à discuter de la perception et de la réalité du métier des études. Elle est également bien présente dans la présentation qu’a pu faire Richard Bordenave sur les travaux de BVA dans le domaine du Nudge ; c’est la démonstration de ce que l’on peut toujours renouveler la façon de pratiquer nos métiers. Et enfin, elle était présente dans le discours de clôture de notre président Luc Laurentin « j’ai une conviction, je pourrai même dire une certitude , l’intelligence analytique se situe toujours dans les instituts, et pour qu’elle perdure les profils vont devoir évoluer et c’est le message que je veux faire passer aux étudiants… »


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Philippe Bourrat

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  7. Résultats d’études #1 – Novembre 2015

    23 nov. 2015

    Nous inaugurons ce mois-ci un nouveau fil dont la vocation est d’apporter une réponse toute simple à un besoin exprimé par nos lecteurs : accéder à une short list des résultats d’études lorsque ceux-ci sont publics.

    Voici donc une petite sélection des études publiées sur ces dernières semaines et qui nous ont été signalées par les sociétés membres du Club MRNews, afin que vous puissiez accéder à leurs principaux résultats en quelques clics.

    • Quelles sont les marques préférées des Français en 2015 ?

    Parmi les 1100 marques évaluées dans le sondage réalisé par Toluna, quelles sont donc celles qui arrivent en tête ? Quels sont les univers les plus représentés ? Et quelles sont les tendances les plus remarquables quant à l’évolution de ces préférences au sein de la population française ? Ces points d’éclairage font l’objet de la nouvelle édition de ce Grand Livre des Marques, qui vient de paraître aux éditions Le Cherche Midi et dont les résultats clés sont résumés ici.

     

    • Les Français sont-ils altruistes ?

    A l’occasion de la Journée de la gentillesse, lancée en 2009 par le magazine Psychologies, Ipsos a sondé les Français sur leur altruisme. Quelle est donc la vision qu’ils se font de l’être humain ? Qu’en est-il de leur altruisme, que ce soit vis à vis de leurs proches ou bien des inconnus croisés dans la rue ? → Découvrir les résultats.

     

    • Baromètre Web-to-Store : la place du digital dans les parcours d'achat du consommateur

    Quelle proportion des consommateurs effectue une recherche sur le web avant de procéder à un achat en commerce de proximité ? Pour quels types d’information ? Combien d’entre eux sont intéressés par la réception d’actualités et de promotions sur leur smartphone via la géolocalisation ? Ce sont quelques une des questions clés adressées dans le cadre de cette étude réalisée par BVA auprès de 1 593 acheteurs en commerce de proximité et sur Internet. → Découvrir les résultats.

     

    • Opération « Black Friday »

    Quel est le pourcentage de consommateurs ayant acheté à l’occasion de ce type d’opération commerciale sur 2015 ? Quid des pratiques online ou en en magasin ? Quel est profil des consommateurs concernés ? Les principaux résultats de cette étude réalisée par Toluna sont accessibles ici.

     

    • Que regardent nos enfants ?

    En association avec GULLI, Ipsos a réalisé une grande enquête intitulée « Kids & Screens » (900 parents / 900 enfants) pour analyser en profondeur l’évolution de la consommation des contenus vidéo des enfants de 4 à 14 ans → Découvrir les principaux enseignements

     

    • Les Français et le Do It Yourself : quelle est la place des activités créatives dans les loisirs ?

    Dans le cadre du premier salon consacré au Do It Yourself, du 18 au 22 novembre 2015 à Paris, Créations & Savoir-Faire, en partenariat avec Ipsos, a voulu en savoir plus sur les pratiques des Français en matière de loisirs créatifs. Quelles sont leurs activités créatives favorites ? Quelles sont leurs motivations ? → Découvrir les principaux enseignements

     

    • Photos numériques : sommes-nous devenus addicts ?

    A l’occasion des 15 ans de Photobox, Ipsos et l’agence Babel ont mené l’enquête : dans un monde où le numérique et les réseaux sociaux sont omniprésents, sommes-nous devenus photo addicts ? A quelle fréquence prenons-nous des photos ? Dans quelles occasions ? Quelles sont les grandes tendances y compris en termes de partage ? → Découvrir les principaux résultats

     

    • Les nouvelles tendances en matière de recherche de logement.

    Quels sont les changements anticipés par les français autour de l’immobilier ? Quels sont leurs critères de choix d’un nouveau logement ? Quel est le rôle du numérique dans la recherche de celui-ci ? Comment les attentes évoluent par rapport aux générations précédentes ? Ce sont quelques unes des nombreuses questions posées par Ipsos dans le cadre de cette étude réalisée par Ipsos pour ORPI. → Découvrir les principaux résultats

     

    • Les Français et les événements sportifs

    Quelle proportion de Français est capable de citer au moins un événement programmé prochainement sur le territoire ? Quel est le niveau de présence à l’esprit des grands évènements à venir sur notre territoire, Euro 2015 de basket-ball et Euro 2016 de football ? Ce sont les questions qui ont été intégrées dans la 3ème édition du baromètre exclusif Future Thinking réalisé avec respondi pour Sponsoring.fr → Découvrir les résultats

     

    • Assurance en ligne : état des lieux et perspectives

    Dans un contexte de digitalisation croissante des comportements de consommation dans tous les secteurs, dont ceux des services en général et de l’assurance en particulier, les comportements des assurés évoluent. Dans le prolongement de son étude réalisée en 2014 sur la banque en ligne, l’Institut d’études Audirep en partenariat avec le cabinet Simon-Kucher, a réalisé en 2015 un état des lieux pour mieux cerner les attentes des Français envers l’assurance en ligne : Quelle est la place de l’assurance en ligne dans les comportements d’assurance des Français ? Comment est-elle perçue en comparaison de l’assurance « traditionnelle » ? Quels sont ses potentiels de développement ? → Découvrir les chiffres clés


     POUR ACTION 

    Commenter 

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Revue de web / Résultats d'études /
  8. « Notre capacité à nous renouveler est une question de vie ou de mort pour notre industrie ! » - Interview de Laurent Florès, Président d’Esomar Monde

    18 nov. 2015

    Dans un contexte où le pessimisme est souvent de mise lorsqu’il est question de l’avenir des études marketing, bâtir et proposer un programme autour de la notion de croissance peut sembler être un contre-pied assez osé…

    Avec Growth 2017, telle est pourtant bien la perspective proposée par David Smith et le nouveau président de l’organisation mondiale des études, Laurent Florès, dont les propos ne laissent aucun équivoque quand à son parti-pris : celui du volontarisme et du sens de l’action. Il répond ici en exclusivité aux questions de MRnews.

    MRNews : A l’occasion du congrès annuel qui s’est tenu à Dublin, vous avez annoncé une série de 10 initiatives clés : Growth 2017. Que faut-il prioritairement en retenir ?

    Laurent Florès : Les dix points abordés avec Growth 2017 ont chacun leur importance. Ils s’inscrivent dans une même perspective globale, notre proposition centrale consistant en un « update » radical de la définition même de notre industrie. Notre conviction clé est que nous ne devons plus considérer notre marché comme étant celui des études stricto sensu, mais comme celui de l’intelligence marketing. On peut utiliser d’autres termes si l’on veut mais l’idée est là. Il ne s’agit bien évidemment pas de jouer avec les mots, mais de prendre acte et de tirer les conséquences des évolutions considérables qui impactent le marketing depuis déjà un bon nombre d’années. Je pense bien sûr à la digitalisation de nos économies et tout ce que cela implique à la fois dans les comportements des consommateurs et dans la connaissance que nous pouvons avoir d’eux. Le monde a changé, les entreprises devant évoluer aujourd’hui dans des environnements infiniment plus complexes et mouvants que par le passé. Pour prendre les meilleures décisions, celles-ci ont naturellement besoin de s’appuyer sur une « intelligence marketing » ayant elle-même intégré ces changements.

    Quelles sont les implications de cette nouvelle perspective pour Esomar ?

    Elles sont multiples. Il est clair par exemple qu’Esomar doit s’adresser à plus large périmètre de professionnels, en intégrant ceux qui travaillent dans l’univers de la data dès lors qu’ils sont impliqués dans l’orientation client des entreprises. Nous devons être un acteur majeur de cette mutation de notre industrie, en jouant de façon plus affirmée encore notre rôle global, mondial, mais en travaillant également en lien étroit avec les associations des différents pays.

    Un assez grand nombre d’acteurs historiques de la recherche marketing ont d’ores et déjà intégré les effets de cette digitalisation de nos économies… Quel est donc l’enjeu ?

    Un des plus forts besoins des entreprises aujourd’hui est de trouver le bon mode d’emploi des données disponibles, celles qui sont collectées passivement ou bien disponibles sur les réseaux sociaux par exemple. Les acteurs traditionnels du marché des études ne sont pas seuls au monde pour adresser ces besoins. Ils doivent faire face à la concurrence de nouveaux acteurs, qui viennent de l’univers de la technologie et font du « data analytics » leur cœur de métier. A notre sens, il y a donc un réel enjeu à définir un nouveau cadre, un nouveau langage, permettant de montrer comment s’articulent et se complètent l’ensemble des compétences de la recherche marketing d’aujourd’hui, depuis la maitrise des méthodologies traditionnelles des études jusqu’à l’écoute des réseaux sociaux et le data analytics.

    La grande question n’est-elle pas de définir la valeur ajoutée distinctive, spécifique à cette industrie de l’intelligence marketing ?

    Tout à fait. En réalité, je crois que les acteurs de notre industrie ont eu tendance à oublier quel était leur savoir faire spécifique. Ils ont laissé dériver leur valeur ajoutée perçue comme étant celle de la bonne collecte des données, qui n’est désormais plus l’enjeu critique compte tenu de la digitalisation de notre monde. Or ces acteurs ont dans leurs bagages les compétences dont ont besoin les entreprises aujourd’hui : la capacité en particulier à analyser, à tirer du sens des données d’où qu’elles viennent, et à rendre compte de ce sens de façon pédagogique, convaincante, ce qui est l’art du story-telling.

    Le paradoxe est que cet univers de l’intelligence marketing doit mieux faire son propre marketing…

    Oui, bien sûr. Nous devons promouvoir notre industrie. L’intelligence marketing n’est pas moribonde. Elle est bien vivante. Elle est même en train d’entrer dans une nouvelle ère de son histoire, particulièrement excitante. Nous devons attirer les top talents d’aujourd’hui, en renforçant nos relations avec les universités en particulier. Tout simplement parce que c’est un métier passionnant et gratifiant que de comprendre ce qui motive les gens, et d’aider les entreprises à prendre les meilleures orientations clients possibles.  Mais je crois que nous devons également valoriser notre rôle au-delà des sphères du marketing, dans la société et y compris auprès des leaders économiques et politiques. Pour cela, il faut que nous abandonnions cette posture consistant à être des intellectuels séduits par l’idée de vivre toujours un peu cachés, et que nous passions à l’action.

    Votre message de fond est celui de la nécessité d’une meilleure adaptation de cette industrie à son environnement. Avez-vous le sentiment que les acteurs aient réellement conscience de cette nécessité et qu’ils agissent en conséquence ?

    Dans le cadre de notre dernier séminaire, nous avons invité les patrons des plus gros acteurs du secteur à partager avec nous leurs réflexions et leur vision du marché. Mon sentiment est qu’il y a même plus qu’une prise de conscience de cette mutation de leur part. Pour une bonne partie d’entre eux, cette mutation est intégrée dans leur stratégie et leur plan de marche. Ils sont en action. C’est cela qui est important, notre rôle, celui d’Esomar, n’étant pas d’agir à leur place mais de simplement proposer la vision et les rails permettant d’avancer.

    Vous évoquez le cas des principaux acteurs, des gros. Quid des petits et des moyens acteurs ? Qu’en est-il de leur capacité à s’adapter à cette mutation ?

    La concentration du marché est une réalité. Je pense qu’elle est amenée à se poursuivre. Il ne faut pas se cacher la réalité : un certain nombre de petits ou de moyens acteurs – ceux qui ne parviendront pas à s’adapter à ce nouvel écosystème - sont amenés à disparaître. Cela ne signifie certainement pas à mon sens que les petites structures soient condamnées. Je pense même au contraire qu’il y aura une multitude croissante de petits acteurs, de spécialistes qui sauront développer de nouveaux modes de fonctionnement, en réseau, selon un principe de synergie de compétences. Cela rejoint un des points clés de Growth 2017 : l’idée que nous devons là aussi nous adapter à une autre réalité du monde d’aujourd’hui, qui est l’atomisation du travail. Travailler toute sa vie au sein d’une même organisation, cela appartient au passé. Les individus ont l’obligation d’acquérir des savoir faire spécifiques, de savoir se marketer, de pouvoir travailler pour plusieurs organisations différentes dans une même semaine ou une même journée. Et de travailler en réseau !

    Vous êtes président d’Esomar à l’échelle globale. Mais avez vous néanmoins un message spécifique à adresser aux professionnels français de la recherche marketing ?

    Non. Je crois que le message que je porte est le même pour tous. C’est une évidence bien sûr, mais la France fait partie des pays les plus développés au sein de notre communauté, ceux parmi lesquels les nouvelles technologies sont omniprésentes. Or ce que nous disons a encore plus de sens pour ces pays-là. C’est là où la transition s’impose le plus, et donc là où la mutation de notre industrie doit impérativement se faire. C’est aussi là où le besoin d’accompagnement de la part des directions marketing et des directions générales des entreprises est le plus fort. Le risque est donc très important pour ceux ne sauront pas gérer cette transition, c’est réellement une question de vie ou de mort ! Mais cela signifie aussi qu’il y a de très belles opportunités, la condition étant de ne pas penser Etudes, mais de considérer les véritables enjeux, ceux d’un marketing, d’une entreprise désormais « drivée » par le digital. 


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Laurent Flores

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  9. (Micro)portrait : Laurent Butery, responsable des Etudes Panels chez Lactalis

    12 nov. 2015

    Et si, histoire de changer un peu, on tournait les projecteurs vers les acteurs les plus discrets de la recherche marketing, ceux qui ont fait le choix de travailler au sein des entreprises, « chez l’annonceur » pour reprendre la formule consacrée ? A la fois pour mieux connaître leurs profils, leurs motivations à exercer ces fonctions, mais aussi leur vision quant aux enjeux de cet univers

    C’est le parti-pris de ces micro-portraits, dont nous reprenons le fil avec l’interview d’un acteur particulièrement expérimenté, Laurent Butery, aujourd’hui responsable des Etudes Panels chez Lactalis. 

    Thierry Semblat (MRNews) : Vous travaillez aujourd’hui chez Lactalis. Quelle est plus précisément votre fonction ?

    Laurent Butery : Depuis quelques mois, je suis en effet responsable des études panels chez Lactalis, qui est le premier groupe laitier mondial. Je travaille au sein de la structure Etudes globale du groupe, avec deux missions principales. Celle de garantir la fiabilité des données, en tenant compte du fait que celles-ci proviennent pour partie de marchés comme la France où les outils sont parfaitement matures, mais aussi de zones comme l’Afrique ou l’Asie qui requièrent un travail particulier. Ma seconde mission consiste à dégager et formaliser les insights provenant des différentes études, qu’il s’agisse des données et des analyses provenant des panels ou des études de type « shopper »

    Quelles sont les grandes lignes de votre cursus professionnel ?

    J’ai effectué la quasi totalité de mon parcours dans des fonctions marketing. Dans des fonctions opérationnelles chez Nestlé puis chez Maison du Café. Puis à des postes Etudes, chez SC Johnson et au sein du groupe Carlsberg ou j’étais directeur de l’entité « Consumer and Shopper Insight ». J’ai également fait un passage dans l’enseignement au sein de l’ESSCA, où j’étais responsable du département Marketing.

    Vous avez travaillé dans des fonctions études exclusivement chez l’annonceur. Il s’agit d’un choix délibéré de votre part ?

    Oui, tout à fait. Je suis très attaché à ce rôle d’accompagnement associé à la fonction, auprès des équipes du marketing opérationnel ou stratégique, de l’innovation, du commercial. J’apprécie beaucoup ce rôle de conseil interne, qui s’appuie sur les études pour influencer les décisions dans le sens de la plus grande pertinence possible. Je pense qu’il est beaucoup plus facile de jouer celui-ci en travaillant dans l’entreprise, en étant immergé au sein des équipes. Il est essentiel de parfaitement connaître les enjeux de l’entreprise.

    Votre formation est celle d’un marketeur « pur-jus » ?

    Pas tout à fait. Je suis titulaire d’un master en Marketing en effet, mais aussi d’un DESS de psychologie, avec une spécialisation sur les enjeux de psychologie du travail, d’organisation, et d’ergonomie. J’ai même démarré mon cursus professionnel dans ce domaine des Ressources Humaines.

    Qu’est ce qui vous a fait bifurquer vers le marketing ?

    Dans le cas des RH, comme dans le cas du marketing, il s’agit de mieux comprendre comment motiver un individu. A l’époque, j’ai opté pour le métier qui me semblait le plus créatif et j’ai découvert l’univers du marketing, grâce à un ami qui avait également ce background en psychologie, j’ai pris conscience que l’on pouvait utiliser des compétences ou des outils que je m’étais appropriés, mais en ayant un pouvoir d’influence sur la gestion des entreprises ou des marques. Et cette perspective-là me paraissait intéressante.

    Qu’est-ce qui vous plait le plus dans cette fonction ? C’est ce pouvoir d’influence ?

    Il y en effet le sentiment d’une grande liberté, de jouer un rôle qui est parfois de l’ordre du contre-pouvoir, en recul par rapport à des marketeurs qui sont fortement investis dans leurs projets et ont le devoir de les vendre dans l’entreprise. S’ajoute à cela la motivation d’être la voix des consommateurs, naturellement, ce qui rend ce contre-pouvoir légitime et utile pour l’entreprise. Le troisième point que j’ajouterai tourne autour de la notion de veille. Si l’on veux devenir leader sur un marché, il y a une obligation à comprendre en permanence ce qui s’y passe, à anticiper. On doit donc toujours être à la recherche de méthodes nouvelles, plus inspirantes pour la création de valeur.  On se retrouve ainsi avec une logique d’action très proche du planning stratégique.

    Quelle a été votre expérience la plus forte jusqu’ici ?

    Le poste que j’ai occupé chez Carlsberg était particulièrement passionnant. C’est en partie lié au fait que l’entreprise traversait une période compliquée (du fait d’un rachat), avec pas mal de turbulences. Cela engendrait naturellement de la douleur, des tensions, mais aussi la nécessité de bien comprendre ce qui se passait, de travailler avec des bases saines et des outils innovants. Il était extrêmement important d’avoir le bon recul par rapport à la performance des marques, et d’aller ainsi au fond des choses dans un temps réduit.

    Des rencontres ont-elles été particulièrement décisives dans votre parcours ?

    Oui, tout à fait. De manière générale, je pense que la première partie de carrière est très structurante de la vision que l’on se fait du métier. Cela s’applique à mon cas personnel en tout cas. J’ai eu la chance en particulier de faire mes premiers pas chez Nestlé, avec quelqu’un comme Philippe Nahon, qui m’a beaucoup appris sur le plan de la rigueur, sur l’importance de la qualité des méthodologies. Hervé de Froment, qui était à l’époque directeur marketing et commercial chez Nestlé, a également joué un rôle très important. Il m’a aidé à comprendre en quoi et comment un processus études peut impacter un business. Cela a été déterminant dans ma vision du métier. La décision que j’ai prise il y cinq ans de me consacrer à l’écriture d’une thèse m’a également amené à effectuer une autre rencontre clé, celle avec le monde de la recherche universitaire.

    Quel est le thème de votre thèse ? Et qu’est-ce qui vous a incité à aller à la rencontre de ce milieu ?

    Ma thèse porte sur l’enjeu du Cross-Canal dans la distribution. La décision de m’y consacrer est venu d’un constat, ou disons d’une impression : celle d’une forte consanguinité du marketing, à la fois du point de vue des équipes et des méthodes. Le risque inhérent à cela, c’est celui de pédaler dans le vide, de ne plus avancer. Ma motivation était donc de découvrir des idées nouvelles.

    Le monde des études vous parait insuffisamment connecté avec celui de la recherche ?

    Mon sentiment est que les instituts ont parfois des liens assez étroits avec l’univers de la recherche. Ils font cette démarche consistant à se plonger dans les réflexions issues de ce milieu, et de concevoir des outils permettant d’exploiter celles-ci de façon accessible. Ils font des choix parmi les méthodes naturellement, mais cela aboutit à des solutions potentiellement intéressantes pour les annonceurs. Mais faut-il pour autant se couper de cet univers de la recherche lorsqu’on est côté annonceurs ? Je ne le crois pas. Ce n’est pas si facile, parce que le temps de la recherche et celui de l’entreprise diffèrent beaucoup. Mais je crois pour autant que ce n’est pas du temps perdu que d’avoir ce regard là, ne serait-ce qu’en lisant des revues telles que Décisions Marketing, Recherche et Applications en Marketing (RAM), Management & Avenir, la Revue Française de Gestion…

    Quels conseils donneriez-vous en priorité à des jeunes tentés par la voie de la recherche marketing ?

    La plupart d’entre eux passe par un cursus de type master, avec l’obligation de rédiger un mémoire. Je pense que c’est une excellente occasion pour commencer à se spécialiser sur un sujet, un type de problématique. C’est une opportunité à saisir pour se créer une expertise, avec la réflexion académique que cela suppose et la possibilité de rencontrer des acteurs intéressants. Et cela facilite bien sûr l’accès au marché du travail. Mon premier conseil est donc de ne pas hésiter à se spécialiser très tôt. Le deuxième serait de s’obliger à toujours être à l’affut de nouvelles idées, en assistant à des conférences ou en s’inscrivant en tant qu’auditeur libre à l’université par exemple. Le temps de la formation et de l’apprentissage ne doit pas s’arrêter avec l’obtention d’un diplôme.

    Si vous aviez le pouvoir de changer quelque chose dans ce petit univers des études et de la recherche marketing, que feriez-vous ?

    Il me semble que l’on assiste à une certaine simplification des débats et des idées, ce qui est dommageable à la pratique du marketing. En allant toujours plus loin dans le « moins de temps, moins d’argent », nous obtenons en retour des réponses de plus en plus simples, pour ne pas dire simplistes. Je crois qu’il est bon parfois d’accepter plus de complexité, et notamment le fait que les consommateurs peuvent avoir des aspirations contradictoires. Pointer ces contradictions peut mener à la découverte de leviers intéressants.

    Un deuxième point gravite autour d’un enjeu auquel je suis particulièrement sensible, celui de la création de valeur. On assiste à de nouvelles formes de co-création de valeur. Avec la participation des consommateurs naturellement, mais plus largement de toutes les parties prenantes d’un éco-système. Sur les sujets qui sont les nôtres, cela comprend les fournisseurs, les distributeurs, les ONG, les pouvoirs publics, etc. Nous ne sommes sans doute encore qu’aux prémisses de ce phénomène, qui pose plein de questions comme celle de savoir comment redistribuer cette valeur co-crée ! Je crois qu’il y a là un véritable enjeu pour les gens d’études, qui auraient tout intérêt à mon sens à s’approprier ces modes de fonctionnement, à savoir les animer et les piloter.

    Une dernière question enfin : quelle est votre vision de MRNews, et quelles sont éventuellement vos suggestions quant aux évolutions possibles ?

    Ce n’est pas de la flagornerie mais j’ai le sentiment que c’est une belle réussite, c’est devenu le hub des études. Dans un contexte où, en tant qu’annonceur, il nous est impossible de rencontrer tout le monde, c’est un support qui permet d’accéder rapidement à un large spectre d’informations et de réflexions. C’est une vraie vitrine de l’innovation dans le domaine de la recherche marketing. Cela permet bien sûr de découvrir des acteurs, mais aussi d’entendre des nouveaux points de vue y compris de personnes que l’on connaît déjà. J’ai été très intéressé par exemple par les propos récents de Luc Milbergue sur l’enjeu du taux d’échec des innovations et la façon d’avancer sur ce sujet. Ou bien encore par la vision que fait partager Mary le Gardeur sur les évolutions des compétences dans notre univers. Ce ne sont que des exemples bien sûr. En termes d’évolution, peut-être serait-il intéressant de faire en sorte que le contenu soit émis et partagé librement par un grand nombre d’acteurs, peut-être sous la forme d’un forum, mais j’imagine que ce n’est pas si facile à mettre en œuvre !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Laurent Butery

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News


     COMMENTAIRE(S) 

    Catherine : Très intéressante interview et beau parcours ! J'ai particulièrement apprécié la partie où Laurent Butery parle de sa vision de la fonction études, "contre-pouvoir légitime et utile pour l’entreprise". Et aussi son sentiment que l'on assiste en marketing à une "simplification des débats et des idées".

    Interviews / Vie de la profession / Micro-portraits /
  10. « Il n’y a pas de fatalité à ce que 75% des lancements de nouveaux produits se soldent par un échec » - Interview de Luc Milbergue, président du groupe Stratégir.

    15 oct. 2015

    Plus des trois quarts des innovations lancées en Europe échouent avant la fin de leur première année d’existence, dixit Nielsen. Est-ce une fatalité, une composante du risque que doivent nécessairement prendre les marques ? Certainement pas, affirme Luc Milbergue, président du groupe Stratégir, qui vient de dévoiler une nouvelle suite d’approches intitulée Market Shaker, en collaboration avec Ekimetrics.

    Il nous expose ici les grandes lignes de cette nouvelle génération de tests de potentiel, ayant vocation à réduire ce risque en s’appuyant sur la synergie des études de marché et du data analytics.

    MRNews : Est-ce que le faible taux de succès des innovations ne pointe pas du doigt une possible limite des outils d’études dédiés à l’innovation ?

    Luc Milbergue : Je crois qu’il serait injuste de rejeter la responsabilité de ce taux d’échec sur les études ! Et en même temps, je pense que l’on ne peut pas ne pas se poser de questions. Est-ce que les études ne peuvent pas aider à faire mieux ? Est-ce qu’il n’y a pas lieu de mieux prendre en compte les évolutions considérables qui se sont produites ces dix ou même quinze dernières années ? C’est en tout cas la posture intellectuelle qui nous a guidés pour élaborer la nouvelle approche sur laquelle nous travaillons depuis plus de deux ans avec Ekimetrics et que nous lançons aujourd’hui, Market Shaker.

    Quels sont les grands facteurs de changements qui, selon vous, doivent impérativement être intégrés dans les approches études sur les lancements de produits ?

    Je crois qu’il faut tenir compte de deux grandes séries de changements majeurs. La première est celle que connaissent nos clients, qu’ils soient industriels ou distributeurs. Cela renvoie à des choses bien connues : d’une part un phénomène de globalisation des marchés, d’autre part la digitalisation au sens très large du terme. Le fait est que ce changement de contexte soulève des défis considérables pour les équipes marketing, une couche de complexité particulière étant apportée par une double fragmentation : celles des médias, mais aussi celle du retail. Ce sont des enjeux très concrets. Pour simplifier, le marketing d’hier s’élaborait avec une concentration des budgets sur quelques médias hyperpuissants. Digitalisation oblige, on ne peut plus raisonner ainsi. Et du fait là encore de cette digitalisation et de la globalisation des marchés, il faut tenir compte d’une plus grande variété des circuits d’achat. Le monde a donc changé. Mais le monde des études aussi ! Celui qui se serait absenté de la scène des études depuis une dizaine d’années serait sans doute complètement perdu aujourd’hui…

    C’est l’explosion de l’usage d’internet ?

    Le recours de plus en plus fréquent au online en est en effet une composante. Mais il faut ajouter à cela un certain nombre d’apports qui, progressivement, changent considérablement la donne. Je pense notamment à l’essor de l’économie comportementale et des neurosciences. Un autre élément majeur est  la montée en puissance du big data et du data analytics qui interfèrent de plus en plus avec les études ad hoc. Notre cheminement intellectuel est que ces changements doivent être intégrés dans les études associées à l’innovation, et en particulier dans les concept use test et les tests de potentiel. Ceux-ci n’ont finalement que peu évolué au regard des changements que nous avons évoqués.

    Quelles sont les limitations que vous avez voulu adresser ?

    Deux points me semblent particulièrement importants. La première limite des outils les plus répandus est de ne pas prendre en compte la réalité de ce qui se passe en linéaire, dans les espaces de vente. Cela fait partie de nos convictions majeures. Comme nous, les produits ont deux vies, une vie privée et une vie publique . Pour réussir sa vie, tout comme nous ,  un produit doit réussir ses deux vies. Il doit réussir sa vie « intime », sa vie privée,  auprès des consommateurs, en situation d’usage. Mais en amont de cela, il doit réussir sa vie publique, et convaincre le consommateur lorsqu’il est placé en situation concurrentielle, en linéaire donc. C’est là que se joue une très grande partie de la réussite – ou de l’échec - des innovations. Quelle est la capacité du nouveau produit à émerger en linéaire et à véhiculer son positionnement, en effet de masse , face à ses concurrents  . La seconde limitation vient de la digitalisation et des effets de fragmentation que nous avons évoqués. Les outils classiques ne sont pas assez souples pour en tenir compte.

    Quelles sont donc les grandes innovations apportées via votre nouvelle approche Market Shaker ? Comment avez-vous essayé de repousser ces limites que vous venez d’évoquer ?

    Nous sommes tout d’abord restés fidèles à un principe déjà présent dans notre précédente génération d’outil, Bridge. Market Shaker est un Concept Use Test, mais que nous faisons précéder par un diagnostic de la performance du produit en linéaire, pour intégrer la vie publique , c‘est une dimension majeure dans l’échec de bon nombre de nouveaux produits . Nous sommes en réalité très peu d’instituts à proposer cette prise en compte de la vie shopper. Nous sommes cependant allés plus loin en intégrant la possibilité de décliner ce diagnostic en fonction des habitudes d’achat du consommateur. En d’autres termes, si un consommateur donné a l’habitude d’acheter son shampoing en hypermarché ou en circuit sélectif, nous allons pouvoir l’exposer à l’environnement auquel il est habitué .

    C’est une réponse à cette fragmentation des modes d’achat que vous évoquiez ?

    Absolument. C’est une donnée extrêmement importante pour certaines catégories de produits, avec des modes de distribution qui peuvent être très différents selon les pays, par exemple entre l’Europe du Nord et celle du Sud.

    Il y a une plus forte prise en compte des spécificités locales, mais aussi individuelles ?

    Tout à fait. La seconde grande nouveauté majeure est que nous sommes passés d’une logique de macro-modélisation – où l’on raisonne donc avec des moyennes - à un principe de micro-modélisation. Ce changement, auquel nous avons procédé en nous appuyant sur l’expertise d’Interstat, n’est pas anodin. Cela nous permet d’obtenir une modélisation beaucoup plus fine, qui tient compte en particulier du poids des différents consommateurs, et aussi de leur sensibilité aux différentes variables du mix.

    Quels sont les apports de la couche « Data Analytics » que vous avez intégré avec Ekimetrics ?

    Ils portent sur deux composantes. Une de nos convictions est qu’il faut avoir une approche holistique de l’innovation. En clair, l’idée est que pour améliorer le taux de succès des innovations, il ne faut pas s’intéresser aux innovations  une à une, produit par produit, mais avoir une vision de l’ensemble de catégorie. C’est ce que permet la synergie avec Ekimetrics, qui par sa capacité à modéliser les catégories de manière globale permet de comprendre  les principaux drivers du marché considéré, avec le niveau de sensibilité aux différents paramètres (prix, communication, promotion,…). Selon les cas, il est donc possible d’intégrer ce module dans le processus, ou bien d’intégrer dans l’étude ad hoc quelques composantes clés de cette modélisation du marché.

    En parallèle du Concept Use Test, vous intégrez donc les règles de fonctionnement propres à la catégorie considérée …

    C’est bien cela. Le second module fait également appel à l’expertise de base d’Ekimetrics, le mix modeling c’est-à-dire la capacité à analyser le ROI de l’ensemble des actions publi-promotionnelles d’une marque ou d’un produit. Cette expertise nous permet de mieux simuler les différents plans marketing envisagés. 

    Vous avez parlé en début d’entretien d’une suite d’approches sur l’innovation, quels sont en dehors de votre test de potentiel Market Shaker les autres outils que vous proposez ?

    Toutes  les innovations ne passent pas au crible d’un test de potentiel pour des raisons évidentes de budget.  Nous avons  conçu une approche plus légère– la version ‘Essentials’ -, qui n’intègre pas la  modélisation des plans marketing que nous avons évoquée, mais qui fournit cependant une estimation de volumes hors plans publi-promotionnels.  Cette approche est particulièrement adaptée à des cas d’innovations à moindre enjeu ou lorsque les budgets ne permettent pas la réalisation d’un test de potentiel complet. Avec cette même logique nous avons également  décliné  une offre online.

    Derrière cela, quels sont les bénéfices pour les clients ? Une plus grande fiabilité dans l’estimation des performances des innovations ?

    Tout à fait. Tous les aspects que nous venons d’évoquer convergent en ce sens. Tout d’abord avec la prise en compte de ce qui se passe dans les linéaires, ce qui est extrêmement important pour la performance d’un produit. Mais aussi par l’apport du data analytics  en prenant mieux en compte la spécificité des catégories  et les niveaux de ROI selon les outils publi-promotionnels mis en œuvre , qui sont très variables d’un marché à l’autre. Mais je rajouterais également un aspect important, qui est la notion de flexibilité. Nous l’avons dit, le monde a changé, et les entreprises doivent composer avec une plus forte hétérogénéité des profils consommateurs, avec les conséquences qui en découlent quant aux circuits de distribution et aux enjeux médias. Notre approche a été conçue avec la volonté de prendre en compte de façon très fine cette géométrie variable des réalités marchés et des plans d’action marketing.

    Dans le futur, prévoyez d’autres prolongements encore autour de votre nouvelle approche ?

    Nous sommes en train de finaliser d’autres modules en effet, notamment sur des enjeux de test de packaging, d’étude d’implantation, et également de screening de concepts. Mais au-delà de ces outils, nous proposons également à nos clients de les accompagner dans la gestion globale de leur politique d’innovation, en les aidant à structurer un hub dédié à ces enjeux. Dans ce cadre-là, on sort d’une logique d’intervention au cas par cas, ou les innovations sont étudiées une par une, pour apporter une véritable aide à la gestion et l’optimisation de leur  portefeuille d’innovation dans la durée.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Luc Milbergue

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Innovation / Interviews /
  11. Le pari Ipsos Advise – Interview de Brice Teinturier, Directeur Général Délégué france, d’Ipsos

    14 oct. 2015

    Avec Ipsos Advise dont le lancement a été annoncé il y a quelques semaines, Ipsos France propose une nouvelle offre de conseil en stratégie de marque et de communication.

    Mais que recouvre plus précisément cette offre ? Quelle en est la vraie nouveauté ? En quoi se différencie-t-elle de l’offre existante dans ce périmètre ? Et comment sera-t-elle mise en œuvre au sein d’Ipsos, par qui et selon quelle articulation avec le métier historique des études ? Ce sont les questions auxquelles répond sans ambages Brice Teinturier, Directeur Général Délégué France d’Ipsos dans le cadre de cet entretien exclusif.

    MRNews : Ipsos a annoncé il y a quelques semaines la création d’Ipsos Advise. De quoi s’agit-il exactement ? D’une offre ? D’une nouvelle entité ?

    Brice Teinturier : Ipsos Advise est une nouvelle offre de conseil, focalisée sur les enjeux de stratégie de marque et de communication, en prolongement d’une dynamique que nous avons mise en place au sein d’Ipsos depuis deux ans. Elle a vocation à répondre à l’évolution des besoins de nos clients – des marques, des institutions ou des dirigeants - dans un contexte qui s’est complètement renouvelé en l’espace de quelques années. Notre parti-pris est celui d’un fonctionnement en mode projet, avec un regroupement d’équipes transverses venant de différentes entités de notre société. Nous mobilisons ainsi un ensemble de compétences qui va bien au-delà du périmètre des études stricto-sensu : le planning stratégique, la prospective, le conseil en communication, la sémiologie,…

    Comment se décline plus précisément cette offre ? Quelles sont ses différentes composantes ?

    Ipsos Advise se structure autour de trois piliers. Le premier correspond à une fonction de  décryptage, qui peut naturellement s’appuyer sur les études que nous réalisons ou celles détenues par nos clients, mais potentiellement sur n’importe quelle autre source pertinente que nous mobilisons pour ce type de démarche : audit de communication, audit de marque, analyse de la réputation, benchmarks de la concurrence, du secteur ou de l’univers de référence, etc.. Une fois ce décryptage effectué vient la phase clé de l’élaboration du positionnement optimal et de la stratégie de communication qui va avec. Cela passe notamment par une bonne identification des enjeux, des cibles à toucher, la définition du positionnement stratégique, l’élaboration des axes de communication et des preuves à mobiliser pour les illustrer. Nous sommes là dans un va et vient entre le client et nous, alternant des phases d’entretiens et de workshops et un travail de back office. Et en aval, il peut également y avoir de l’accompagnement permanent pour la mise en œuvre opérationnelle de la stratégie et son suivi. On le sait, pour une marque ou une institution, définir un bon positionnement ne suffit pas. Encore faut-il le suivre et l’incarner dans tous les outils de communication, ce qui n’est pas toujours facile lorsqu’on doit intégrer les contraintes qui se présentent au quotidien, ou réagir aux initiatives des concurrents par exemple. Il faut donc s’assurer via des outils et/ou un certain nombre de processus que ce positionnement est réellement mis en œuvre, dans la plus grande cohérence possible, et avec la meilleure économie de moyens.

    Les sociétés d’études sont déjà bien présentes sur ces enjeux de stratégies de marque, notamment sur cette activité de décryptage ou de diagnostic…

    Tout à fait. Mais d’une part le type de décryptage proposé avec Ipsos Advise va bien au-delà de ce qui est habituellement réalisé dans un périmètre Etudes stricto sensu. D’autre part et surtout, l’idée est de dépasser le stade du « diagnostic pour le diagnostic » et d’en faire un outil au service de la définition  du positionnement le plus pertinent qui soit. Il s’agit donc bien de faire acte de conseil, en réponse à des clients de plus en plus demandeurs de points de vue engagés. Cette dimension de recommandation, de conseil et d’accompagnement, je vous entends bien, est déjà en partie présente dans l’activité des instituts. Mais notre constat est que cette dimension ne peut prendre réellement son sens que si on lui accorde des moyens. Des moyens « intellectuels », avec tout le savoir-faire que cela suppose de la part des équipes, mais aussi des moyens financiers. Avec, derrière cela, la possibilité de proposer des prestations dans des conditions économiques cohérentes avec la valeur apportée.

    Qu’est-ce qui explique ce besoin de plus de conseils et d’accompagnement de la part de vos clients ?

    Nous partons d’un constat majeur : toute une série de phénomènes transforme la donne chez eux, et vont en s’accélérant. C’est le digital et la numérisation, qui cassent toutes les hiérarchies verticales et les modèles classiques de création de valeur. C’est la défiance des consommateurs, qui deviennent versatiles et infidèles sans aucune once de culpabilité. C’est également l’internationalisation et plus largement la possibilité pour les consommateurs de se retrouver en situation d’hyper-choix. C’est enfin leur volonté de peser et la possibilité que le digital leur donne de le faire vraiment ! Pour les marques et les institutions, il y a donc un enjeu majeur de crédibilité, auquel vient se rajouter une difficulté croissante à être tout simplement audible, de par la fragmentation des médias en particulier. En résumé, il y a cette double interrogation : comment être audible, comment être pertinent et crédible ? Ce n’est pas si simple de trouver les meilleures réponses à ces questions là…

    Ne vous retrouvez-vous pas frontalement en concurrence avec certains acteurs établis du conseil, ou même avec les agences de communication ?

    Oui, d’une certaine façon… Il est inévitable qu’il y ait un peu de blurring. Mais je crois néanmoins que notre proposition se différencie très fortement de celles des acteurs que vous évoquez, qui soit dit au passage forment un ensemble extrêmement hétérogène. Nous sommes sur un autre terrain de jeu. L’idée pour nous n’est certainement pas de prendre cette activité de conseil comme un lego supplémentaire qu’il s’agirait de coller à côté de notre activité Etudes. La spécificité que nous revendiquons, c’est notre capacité de maitriser et d’articuler à bon escient les données consommateurs d’une part et des prestations d’accompagnement et de conseil d’autre part. Les data et l’accompagnement sont étroitement imbriqués. C’est cette spécificité notamment qui nous permet d’élaborer des positionnements reposant sur l’écoute la plus professionnelle qui soit des consommateurs et des citoyens, offrant ainsi les meilleures garanties possibles de crédibilité.

    Est-ce vous qui êtes le « patron » d’Ipsos Advise ?

    Oui, mais auprès d’une équipe transverse, pluridisciplinaire. Je suis en charge de cette offre que nous avons commencé à développer il y a déjà plus de deux ans dans différentes entités d’Ipsos France. Je suis donc le patron de cette offre mais au sens d’un animateur. Nous tenons à cette idée d’avoir une façon de travailler qui sorte des schémas habituels. En fonction de la problématique des clients, et de façon complètement ad’hoc, nous allons mobiliser les expertises les plus pertinentes, en allant puiser les ressources là où il le faut. Sylvie Gassman, qui fait partie de l’équipe Ipsos Advise, est directrice de département Qualitatif au sein d’Ipsos Marketing ; Françoise Hernaez Fourrier dirige le planning stratégique d’ Ipsos, Catherine Veillé est depuis longtemps à la tête d’Ipsos Insight marques, Vanessa Bouquillion est directrice associée au sein d’Ipsos Public Affairs, en charge de l’activité Conseil…

    De combien de personnes se compose cette équipe ?

    Aujourd’hui, elle intègre les personnes que je viens de citer, mais aussi Yves Bardon, responsable d’Ipsos Flair et du Knowledge Center, Thibaut Nguyen, directeur du département Tendances et Prospective, Thibaut Coiffier, consultant… Au global, Ipsos Advise repose sur une quinzaine de personnes, avec des parcours et des compétences des plus complémentaires. Certains viennent du planning stratégique, comme Françoise. D’autres ont travaillé en agences de communication, comme Vanessa Bouquillion, qui vient d’Havas, ou Thibaut Coiffier, de Stratéus.

    Avec l’intégration de ces profils différents de ceux habituellement présents dans les instituts d’études, ne prenez-vous pas le risque d’une forme de clivage au sein des équipes, avec d’un côté les équipes études, et de l’autre celles à même d’aller vers le conseil ?

    Non, la démarche est bien comprise en interne. Il ne s’agit pas de se substituer mais d’ajouter et d’essaimer. Advise n’est pas un département à part mais une équipe transverse, qui travaille très souvent avec les équipes étude, parfois sans, toujours en étroite imbrication. Et pour ce qui est de nos recrutements venant par exemple d’agences de communication, c’est là qu’il y avait une prise de risque en terme de culture et de métiers mais ma très grande satisfaction est de voir combien la greffe a bien prise, et ce dans les deux sens. Ces personnes venant d’autres horizons s’imprègnent au quotidien des études et renforcent leur pertinence et leur efficacité ; mais elles ont également irradié leur savoir-faire au sein des équipes Ipsos. C’est ce qui fait que la taille de l’équipe n’a pas vocation à en rester là, à cette quinzaine de personnes. Sur les 600 collaborateurs d’Ipsos en France, d’autres sont naturellement amenés à rejoindre ce premier cercle. Et par ailleurs, depuis que nous avons annoncé le lancement d’Ipsos Advise, nous recevons un nombre assez conséquent de CV, de demandes. J’y vois le signe que nous avons visé juste avec cette volonté de vraiment mettre les moyens nécessaires à une meilleure imbrication entre les études et le conseil.

    Une dernière question enfin, celle des clients de cette offre. Qui sont-ils ? Dans quels secteurs évoluent-ils ?

    Nous avons pour l’instant réalisé une vingtaine de missions, selon des dimensionnements assez variés. Nous sommes notamment intervenus dans des domaines comme ceux de la banque-assurance, de l’énergie, de l’industrie, ou bien du logement. Nous opérons également dans l’univers de la santé. Sans doute du fait d’effets d’offre, nous sommes encore peu présents dans la grande consommation ; c’est un domaine qui reste à couvrir, nous nous y emploierons. Ces premiers clients sont parfois surpris que nous allions aussi loin en termes de conseil et d’accompagnement. Cela donne la mesure de ce challenge : il faut que nous fassions évoluer les perceptions, pour que l’idée s’impose que nous pouvons aller bien au-delà du rôle habituellement dévolu aux études. C’est bien sûr un des défis les plus motivants qui soient compte tenu des enjeux associés à cela.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Brice Teinturier

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Marque / Vie de la profession /
  12. Quand 11 têtes pensantes se penchent sur la notion de « rupture » - Publication de « Rupture, vous avez disrupture ? », aux éditions Kawa

    13 oct. 2015

    Le terme de « rupture » fait à l’évidence partie de ceux parmi les plus présents dans la bouche de ceux qui pointent et décryptent les évolutions de notre société, ainsi que leurs incidences sur le marketing.

    Mais qu’en est-il vraiment ? Peut-on réellement parler de rupture, et si oui en quoi ? Un ouvrage édité aux éditions Kawa il y a déjà quelques semaines rassemble les réflexions sur ce thème de 11 parmi les plus « fortes têtes pensantes » de la sphère du marketing, de la communication ou d’autres univers encore, réunies au sein du Think Tank des Mardi du Luxembourg. Passionnant !

     

    Voici donc un petit écorché de cet ouvrage en forme de teasing, avec les angles adoptés par ces 11 têtes pensantes, autour de 3 grands types de vision :

    La vision historique

    - François Laurent, avec le regard critico-lucide dont il est coutumier, revient sur la rupture optimiste du web 2.0 et la vague euphorique de l’intelligence collective, pour évoquer la menace que celle-ci se retourne hélas en une grande bêtise collective !

    - Alexandre Rispal s’intéresse lui à cette dialectique permanente entre les progrès technologiques que nous connaissons ou qui se préfigurent - et notamment ceux de l’intelligence artificielle - et notre identité d’être humain

    - Philippe Cahen nous invite à revisiter les générations qui se succèdent (baby boomer, digital natives, X, Y, Alpha, Bêta) dans une perspective large plutôt qu’enfermée dans notre vision « occidentalo-centrée », en affirmant le primat de l’émotion et de l’intuition sur l’intelligence rationnelle

    - Annabel Ringrave nous alerte quant à elle sur les risques que font peser les progrès scientifiques tant sur notre intimité que sur notre liberté d’expression, avec une hypermédiatisation croissante et l’apparition de nouvelles formes de surveillance.

    La vision expérientielle

    - Luc Basier analyse l’apport de la communication digitale pour les marques, exemples à l’appui (Wilkinson, Nespresso, Evian,…).  Il met en lumière la double nécessité d’intégrer ces changements, mais aussi de respecter les règles fondamentales - et vraisemblablement intangibles - de la communication et de la psychologie humaine

    - Jean Marc Goachet se penche sur un cas particulier - la conception de la voiture solaire et communicante Eco Solar Breizh - pour mettre en exergue tout ce dont ce projet témoigne quant aux ruptures de notre temps

    - Véronique Varlin déroule elle une conviction forte : celle que le marketing ne pourra réellement tirer profit des ruptures technologiques du numérique et du big data qu’à la condition de se fixer une ambition de progrès humain. Elle invite ainsi les marques à se saisir de questions « critiques » pour les gens afin de disposer d’une plus forte légitimité dans notre société

    - Hanri Kaufman pointe les différentes formes de rupture, certaines étant brutales, spectaculaires ; d’autres l’étant moins (comme la disparition de nombre de commerces de proximité par exemple), parce que beaucoup plus progressives, mais néanmoins tout aussi importantes. Il évoque non sans humour les différentes options possibles face à l’innovation et à la « disrupture », comme autant de variantes de la « courbe du chien »

    La vision philosophique enfin

    - Jean-Claude Boulay explore une nouvelle manière de vivre de l’individu contemporain hyperconnecté, que l’on pourrait même qualifier de « transtopique » de part cet enjeu qui est le sien à être traversé en permanence de multiples flux de tous ordres.

    -  Yves Krief développe dans Solaris une allégorie d’un dé-voiement de l’internet vers une sorte d’être incontrôlable, en posant la question de savoir si nous n’allons pas finir par être les jouets de virus algorithmiques de plus en plus puissants. Avec la figure de Zombie Boy (jouant dans la publicité Dermablend vue plus de 26 millions de fois sur YouTube), il analyse une image qui pourrait bien être l’icône représentative de notre société.

    - Christian Gatard met lui en perspective ces ruptures contemporaines, qui font écho à l’histoire du monde. Pas d’histoire humaine sans fractures suivies de sutures, nous dit-il, en mettant en évidence toute l’importance du rôle des carrefours (qui « raccommodent les territoires »), et des artistes qui fabriquent les mythes de réconciliation avec le vivant.


     POUR ACTION 

    Commenter 

    Commander l'ouvrage

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Livres, publications /
  13. 20 ans et dans la cour des grands – Interview de Nathalie Perrio-Combeaux et Patrick Van Bloeme (Co-fondateurs de Harris Interactive)

    17 sept. 2015

    Harris Interactive fait partie de ces rares sociétés qui, en l’espace de quelques années - et à partir d’un positionnement que d’aucuns auraient pu considérer comme marginal - se sont hissées dans le peloton de tête des études marketing, au côté donc des acteurs historiques de la profession.

    Quelles ont été les grandes étapes du parcours de cette entreprise ? Quelles en sont les perspectives ? Et avec quelle vision quant au devenir de cet univers ? A l’occasion de l’anniversaire des 20 ans  d’Harris Interactive en France, ce sont les questions que nous avons posées à son tandem de direction composé de Nathalie Perrio-Combeaux et Patrick Van Bloeme.

    MRNews - Il y a 20 ans, vous avez créé tous les deux une société, Novatris, qui est devenue un peu plus tard Harris Interactive. Quels étaient les principes fondateurs de cette société ? Son ADN ?

    Nathalie Perrio-Combeaux – Patrick Van Bloeme : Nous avons créé cette société avec une orientation résolument sectorielle, dans un contexte très différent de celui d’aujourd’hui. L’idée se résume très simplement : elle consistait à proposer des solutions d’études et de conseil marketing spécifiquement à destination des acteurs des télécoms et plus largement des NTIC. Nous vivions à ce moment-là la libéralisation de ces marchés et ces activités étaient en pleine explosion. Cela soulevait des problématiques nouvelles, sur lesquelles les acteurs historiques des études et du conseil n’étaient pas toujours très à l’aise. Nos premiers clients étaient des acteurs comme SFR par exemple. Puis, par extension, les entreprises  de tout secteur qui se sont intéressées à internet.

    C’est la diffusion d’internet qui vous a donc amené à sortir de cette spécialisation sectorielle ?

    Oui. Avec comme déclencheur le fait que France Télécom nous sollicite en 1996 sur la question de l’intérêt pour eux de proposer l’équivalent des Pages Jaunes sur internet. L’incidence très faible de la cible à investiguer nous a conduits à « développer» notre première enquête en ligne. C’était une nouveauté quasi-absolue en France. Nous n’étions même pas équipés d’internet à la maison ! Et alors que nous pensions que le recueil demanderait plusieurs semaines, nous avons eu les retours de plus de 2 000 répondants en un seul week-end. Nous avons ainsi pris conscience du potentiel de ce nouveau mode de recueil.  

    Et vous êtes donc devenus le spécialiste des études en ligne…

    Absolument. Dans la foulée, nous avons créé le premier observatoire des internautes, monté notre access panel et étendu notre base d’internautes à l’ensemble de l’Europe.

    L’explosion de la bulle internet - en 2000 – n’a t-elle pas bouleversé la donne ?

    Cela a bien sûr été un moment clé qui nous a incités à nous diversifier. Et  nous nous sommes retrouvés en compétition plus frontale avec les acteurs historiques des études. Compte tenu de la diffusion d’Internet et  de la qualité  de notre travail nous étions convaincus d’aller dans le sens de l’histoire. A l’époque, nous n'étions cependant que très peu nombreux à partager cette vision. Malgré le scepticisme de la profession, nous nous sommes progressivement développés sur ce créneau dans la  quasi-totalité des secteurs d’activité.

    Le passage de Novatris à Harris Interactive se fait en quelle année ?

    En 2004. C’est l’année où nous acceptons la proposition d’un groupe américain dirigé par un actionnaire à forte culture entrepreneuriale, une culture somme toute assez proche de la nôtre. L’histoire qui suit est donc largement dans la continuité des années précédentes, mais avec une amplitude géographique et des moyens qui nous rendent crédibles auprès de grands comptes internationaux. L’innovation est restée au cœur de notre stratégie, avec notamment le quali on line, les communautés, les mobiles …

    Mais les choses n’en sont pas restées là en termes d’actionnariat…

    C’est exact. En 2014, la structure américaine d’Harris Interactive décide de rejoindre le groupe Nielsen. Les entités européennes ont de leur côté rejoint le groupe ITWP, acteur mondial en plein essor

    Ce groupe ITWP est déjà très présent dans les études, avec Toluna. J’imagine que le fait de rejoindre celui-ci n’est pas anodin…

    Cela s’inscrit en effet dans une certaine vision du marché qui, à notre sens, est en train de muter de façon radicale. Cette mutation intègre différentes composantes, mais l’une des plus importantes est la montée en puissance de l’automatisation des process d’études et leur déclinaison en  solutions technologiques  de type « do it yourself » (DIY). C’est précisément un des domaines sur lesquels le groupe ITWP dispose d’une expertise de premier plan, avec une équipe R&D dédiée de plus de 60 personnes. Il y a là pour nous un socle d’innovation extrêmement intéressant !

    Ces solutions sont le plus souvent perçues comme étant une concurrence indirecte pour l’industrie des études « traditionnelles », et même comme une menace pour celle-ci. Quelle est votre vision ? Pour le formuler un peu « brutalement », votre marché est-il toujours celui des études ?

    C’est une vraie question ! Notre vision est qu’il y aura de plus en plus deux pans assez spécifiques dans cet univers. Le premier correspond à des besoins tactiques, avec des impératifs de rapidité. Cela se traduit par la production de données de marché, fiables, et rapides, voire temps réel pour des prises de décision pertinentes. Sur cette famille de besoins, les meilleures réponses viendront de plus en plus de l’automatisation et de la technologie. Mais il existe naturellement un second pan, extrêmement important, qui correspond au besoin d’accompagnement  et d’expertise. La donnée en tant que telle est rarement suffisante pour prendre de bonnes décisions. Nos experts sont là pour accompagner nos clients au-delà de l’étude. Notre vision consiste à dire qu’il ne faut pas être dans une sorte d’entre-deux, mais qu’il faut au contraire intégrer ces deux pans avec la plus grande pertinence possible. Notre mission ne change pas mais il est nécessaire d’évoluer pour répondre aux exigences d’aujourd’hui : vitesse, agilité et clairvoyance.

    L’idée de ne pas opposer ces deux besoins ne fait pas l’unanimité…

    A nouveau nous bousculons le marché. Les études ne sont pas une fin en soi mais bien une réponse à des questions que se posent des décideurs. Ces réponses peuvent  prendre des formes extrêmement variées : de l’enquête au sens traditionnel du terme, qualitative ou quantitative, mais aussi de la veille, des approches de type big data,…. Nous ne voyons vraiment pas le « do it yourself » et les solutions technologiques comme une menace. Il s’agit même plutôt d’une opportunité. C’est la vision qui nous amène à développer des solutions comme « Chrono 24 », dont le principe est d’aider les entreprises à disposer des bonnes informations le plus rapidement possible, mais aussi dans les meilleures conditions possibles de fluidité et de fiabilité. Dans le même registre, nos Harris Communities permettent à nos clients de dialoguer directement avec leur public tout en bénéficiant des expertises de nos équipes.

    N’est ce pas aussi la vocation des sociétés de conseil que d’aider les entreprises à prendre les bonnes décisions marketing ?

    Il y a des différences entre ce que nous définissons comme étant notre métier et celui du conseil, avec sans doute un plus fort parti-pris d’opérationnalité de notre côté, et le refus délibéré de nous considérer comme de potentiels gourous. Mais il y a aussi des synergies importantes. Notre conviction est qu’il n’y a pas une incompatibilité radicale entre ces différentes activités que sont le conseil, les études au sens traditionnel du terme et les solutions technologiques d’automatisation. En même temps que nous intégrons ces dernières, nous sommes aussi de plus en plus présents sur des missions d’accompagnement, comme la formation à l’écriture de concepts, ou même la co-création (design thinking) par exemple. Nous allons également de plus en plus loin sur des aspects de communication, pour mettre en scène les idées les plus essentielles à retenir à partir des projets que nous gérons. Au fond notre métier est de plus en plus celui d’un intégrateur d’expertises, l’idée étant de mobiliser et d’articuler différents savoir faires pour répondre au mieux aux exigences du marché.

    Les évolutions dans lesquelles vous êtes engagées ne vous amènent-elles à voir de plus en plus souvent d’autres interlocuteurs que les équipes études dans les entreprises ?

    Nous assistons clairement à une diversification de nos interlocuteurs. Certains chantiers nous conduisent à être plus directement en contact avec les directions générales, les cellules digitales, les directions de la communication ou bien encore celles des ressources humaines. Dans ce contexte, les équipes études ont parfois donné l’impression d’être un peu dépassées de tous bords ; mais il nous semble qu’un ré-équilibrage est en train de se produire. Les organisations semblent avoir désormais une conscience plus aigüe de l’importance de cette fonction Etudes.

    Tout cela a sans doute aussi des incidences fortes sur votre propre politique de ressources humaines, et en particulier sur la nature des recrutements que vous êtes amenés à faire ?

    C’est juste. Du fait de notre histoire, qui est marquée par une diversification progressive, nous avons toujours été amenés à recruter des profils d’experts. Il s’agit essentiellement d’expertises sectorielles (celle des médias, de la grande consommation, services)  ou liées à des problématiques (opinion, corporate, expérience clients, marques …).Au delà de leurs qualités d’analyse, nous accordons une très grande importance au relationnel. Personne n’a envie de travailler avec des équipes compétentes  mais peu sympathiques ou bien peu convaincantes.

    De vilain petit canard, est-ce qu’Harris Interactive n’est pas devenu une institution ?

    Certes nous jouons dans la cour des grands. Mais il y a sans doute dans notre ADN quelque chose qui nous protège du statut un peu figé d’une institution. Il y a chez Harris Interactive – et sans que ce soit une caractéristique exclusive bien sûr - une fibre très entrepreneuriale, qui nous pousse à toujours nous remettre en question, à toujours essayer de tester et proposer de nouvelles choses.   

    Comment enfin définiriez-vous vos principales ambitions dans les 5 ou même 10 ans à venir ?

    Nous considérons que la mutation que nous avons évoquée est un beau challenge. Nous voulons donc relever celui-ci en s’appuyant sur cette vision consistant non pas à défendre un pré-carré ou à étanchéifier les expertises, mais au contraire à les intégrer. Notre pari est au fond celui de l’entrepreneur, qui pense qu’il y a toujours plus d’opportunités que de menaces  derrière chaque bouleversement de marché.  A nous de repenser les études, de réinventer notre métier. Nous n’imaginons donc pas une seule seconde nous ennuyer dans les prochaines  années !


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Nathalie Perrio-Combeaux   @ Patrick Van Bloeme

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  14. Les plus beaux flops du marketing – Interview de Catherine Heurtebise, auteur des « Petites bêtises du marketing »

    3 sept. 2015

    Si la littérature marketing met très régulièrement en exergue les réussites d’un certain nombre de marques – toujours un peu des mêmes, diraient les mauvaises langues  - il est plus rare en revanche qu’elle s’intéresse aux « loupés » de celles-ci !

    C’est tout le propos de Catherine Heurtebise, une des figures les plus appréciées du journalisme marketing en France, qui a publié il y a quelques semaines aux éditions François Bourin « Les petites bêtises du marketing », un inventaire à la fois amusant et fort instructif de 66 superbes exemples de « ratages ». Elle répond ici aux questions de MRNews.

    La littérature marketing s’intéresse beaucoup aux réussites des marques, mais beaucoup moins souvent aux échecs, aux flops. Mais peut-être est-ce une composante culturelle très française de ne pas trop parler des échecs ?

    Catherine Heurtebise : C’est vrai, ce n’est pas si courant. C’est ce qui m’a incité, dans la préférence du livre, à rendre hommage au publicitaire Jean-Michel Goudard, qui a écrit il y a déjà quelques années un livre joliment intitulé : "Je vous salue fiascos ». On ne parle pas d’échecs en France, contrairement aux pays anglo-saxons Et pourtant, plus de la moitié des innovations en grande consommation finissent aux oubliettes ! Nous, journalistes professionnels, sommes confrontés en permanence à ces vétos. Les entreprises nous font les yeux doux quand il s’agit d’annoncer leurs innovations. Mais quand vous voulez enquêter sur un échec, il n’y a plus personne !  C’est la raison d’être de ce petit livre : parler d’échecs et surtout mélanger des « ratages » de grandes marques mondiales, de PME, de start-ups, d’instances gouvernementales. Les flops ne concernent pas uniquement les « produits » marketés mais aussi des distributeurs, des médias, des médicaments, des publicités, des tweets, des pseudo-innovations de l’Etat ou d’institutions publiques…

    A la lecture de ce bêtisier, on se dit qu’aucune marque n’est jamais complètement à l’abri. Même celles qui ont été les plus mythifiées comme Apple ont fait des bêtises. Les entreprises doivent-elles se « blinder" pour éviter ces échecs, qui peuvent parfois être très couteux. Ou bien faut-il considérer qu’il est nécessaire d’échouer pour réussir ?

    Personne n’est à l’abri d’un échec et, Jean-Michel Goudard l’explique très bien dans son livre : l’échec n’est pas toujours synonyme d’erreur ou de faiblesse mais peut permettre de rebondir. Comme dans la vie personnelle, en marketing, il faut souvent rater avant de réussir.

    Dans son blog et à partir de votre ouvrage, Hervé Monnier a dressé 4 grandes catégories  de bêtises. De notre point de vue, nous serions tentés de n’en avoir quasiment que deux principales. Soit un défaut d’utilité, c’est à dire que la marque se pose insuffisamment la question de l’intérêt de ce qu’elle apporte au public (un cas flagrant étant celui du Cola transparent). Ou bien un manque d’authenticité : la marque oublie qui elle est, et même au pire elle ment. Qu’en pensez-vous ?

    Je n’ai pas voulu faire un ouvrage dogmatique avec analyse d’expert et jugement. J’ai voulu faire réfléchir en s’amusant sur des ratages en donnant des pistes d’explications et en posant des interrogations qui montrent que souvent, il faut mieux réfléchir avant de lancer et d’agir. Mais c’est vrai que l’une des grandes erreurs des responsables marketing est de ne pas se poser la question de ce que leur pseudo innovation va apporter au consommateur, surtout dans la surabondance actuelle de l’offre. Par mégalomanie mais aussi inconsistance culturelle des équipes ou de l’ADN de la marque, les entreprises oublient qui elles sont et ce qu’elles ont fait jusqu’ici. L’autre grand manquement est cette amnésie qui semble frapper les directions générales et marketing. L’exemple le plus flagrant de mon livre qu’analyse parfaitement  Gilles Fraysse dans les « Les  Echos.fr » est l’échec de Nestfluid. Comment une entreprise comme Nestlé a-t-elle pu oublier son ratage de LC1, celui d’Essensis de Danone, en s’entêtant sur les alicaments !

    Parmi les 66 bêtises que vous avez recensées, il y en a bien une qui a votre préférence, qui vous étonne ou vous fait sourire plus que les autres. Non ?  

    Dans le prolongement de ce que nous avons dit, c’est Coca-Cola. Un des modèles du marketing qui s’est planté avec New Coke, dépensant pour rien des millions de dollars. Tout cela pour concurrencer Pepsi ! C’est pour moi une des plus grandes bourdes marketing du XX ème siècle. La bourde qui m’a le plus amusée : les « Jupettes » de Jupé. D’ailleurs, le terme est toujours utilisé comme symbole de sexisme et de condescendance.  Et le pire (on revient sur l’amnésie !) est que les gouvernements suivants n’ont pas fait mieux. On a eu depuis les « Hollandettes » !

    Dans les entreprises, les études marketing ont théoriquement pour vocation d’éviter de faire des bêtises. Est-ce que vous pensez que de ce point de vue elles ont matière à faire mieux ?

    Avant, on disait que les études marketing livrées par les instituts finissaient dans les tiroirs des équipes marketing sans être le plus souvent vues. Aujourd’hui, (la baisse des budgets aidant !), on ne fait plus ou en tout cas moins des études qui ne servent à rien. Et surtout, on s’intéresse davantage aux « vraies » attentes des consommateurs grâce notamment aux nouvelles méthodes (études ethnographiques, communautés on line…). On peut donc espérer que cela va mieux…

    Vous êtes une des rares journalistes spécialistes du marketing, avec donc un rôle d’observatrice privilégiée des évolutions de cet univers. Quelles sont les tendances qui vous frappent le plus, quelles soient positives ou au contraire plutôt inquiétantes ?

    Parmi les tendances positives, c’est globalement une meilleure connaissance du consommateur et donc des lancements et des études qui semblent plus logiques. Mais on voit toujours des aberrations et des scandales, que ce soit en termes de lancement de produits en gender et senior marketing, en modes alimentaires éphémères (le sans gluten par exemple), en communication avec le brand content et le made in France bashing qui ont remplacé le greenwashing, en récupération outrancières de l’écologie… La liste est longue. Un des travers qui m’inquiète : le buzz washing. Par manque de culture d’entreprise, d’expérience marketing (un des facteurs essentiels de diminution des risques), et dans une course effrénée au Tweets et au gain de fans, les marques font n’importe quoi. Cela fait le bonheur des conseils en e-réputation. Les cas 3-Suisses, Zara, Petit Bateau, Nana… en sont de bons exemples, mais je suis certaine qu’il en existe plein d’autres !

    NDLR : Catherine Heurtebise est journaliste spécialisée en marketing et communication. Elle a travaillé pour Stratégies, avant de participer au lancement de CB News et de co-créer Marketing Profit. Après quatre années passées au sein de la rédaction de Marketing Magazine, elle est aujourd’hui journaliste free-lance.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Catherine Heurtebise

    Commander l'ouvrage "Les petites bêtises du marketing"

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Livres, publications / Marque /
  15. Quel espace pour les marques entre la stratégie du premium et l’option low cost ? - Interview de Bertrand Minot (Qualeïa)

    31 août 2015

    Dans le contexte économique que nous traversons, deux réflexes semblent s’imposer pour les marques. Soit celui de proposer des offres à bas prix. Ou bien a contrario l’option dite de la premiumness (avec une montée en gamme de l'offre et une orientation délibérée dans le sens de la « valeur »).

    Et si ces réflexes méritaient cependant d’être challengés ? Et s’il y avait d’autres options à considérer pour les marques, en sortant de cette forme de « binarisation » stratégique entre low cost et premiumness ? C’est la réflexion à laquelle nous invite Bertrand Minot (Directeur d’études chez Qualeïa), dans une re-lecture transverse d’un ensemble conséquent d’études qualitatives.

    MRnews : Dans le cadre d’une relecture « transverse » des études que vous avez pu réaliser depuis un an ou deux, vous relevez un point assez frappant concernant la stratégie des marques, avec le réflexe de la « premiumisation » de leurs offres…

    Bertrand Minot : C’est une tendance qui nous semble en effet très claire. Un grand nombre d’entreprises réagit encore classiquement avec une stratégie de « sablier », soit dans le sens de la « premiumness », montée en gamme, soit au contraire en optant pour une politique de bas prix avec une baisse de qualité.. Au fond, les marques agissent un peu comme s’il n’y avait plus que deux stratégies valides : celle du low cost, et celle du premium, avec aujourd’hui une plus forte inclinaison en faveur de la seconde option.

    N'est-ce pas une façon assez logique de s’adapter à notre contexte économique ?

    Cela s’inscrit en effet dans une certaine lecture de ce contexte économique, le plus souvent décrit comme étant celui d’une crise. Dans ce type de période, les consommateurs se tournent vers les produits à petits prix ; mais ils sont aussi tentés de s’offrir de « petits luxes ». Dans des temps vécus comme difficiles, ils cherchent à se faire plaisir et à s’offrir une petite part de rêve. La premiumisation des offres est censée répondre à ce besoin d’évasion, allant chercher un supplément d’âme au-delà de la simple fonctionnalité.…

    Mais, si je vous entends bien, cette réponse n’est pas la plus adaptée…

    Elle est sans aucun doute valide dans certains cas. Mais elle nous semble en effet assez souvent décalée par rapport aux nouvelles attentes des consommateurs. La lecture dominante des entreprises est que nous vivons une crise passagère, avec la vision qu’un retour à la normale se produira à un moment où un autre. Bien sûr, nous observons des phénomènes classiques en temps de crise, comme des achats différés dans le temps ou bien un report vers les produits les moins chers. Mais l’on observe aussi des signes manifestes d’un changement de paradigme. Les gens prennent assez massivement conscience du fait qu’ils peuvent se passer d’un certain nombre de choses. La frugalité est valorisée, ainsi que la simplicité des produits. Et des modes de consommation alternative se mettent en place, comme ceux de l’économie collaborative. On peut donc penser que ces changements vont s’inscrire dans la durée, et que nous assistons bien à un changement significatif des règles du jeu. Le terme « d’encrisement » nous semble plus approprié ; il est synonyme d’un changement durable des attitudes et des comportements des consommateurs. C’est l’avènement d’une nouvelle ère. Et il y a un vrai risque pour les marques à ne pas voir ou à ne pas tenir compte de ces changements.

    En somme, la premiumisation doit contourner le risque d’apparaître comme une sophistication inutile auprès des consommateurs…

    Absolument. S’agissant de certains concepts que nous sommes parfois amenés à présenter aux consommateurs, leur réaction est de dire « c’est du marketing ! ». Pour eux, c’est quasiment un gros mot. Disant cela, ils stigmatisent des innovations qui, de leur point de vue, apportent peu de choses et n’ont pas été réellement pensées dans leur intérêt mais dans celui des marques. De plus, on a l’impression que la montée en gamme privilégie la valeur et pas le volume, risquant ainsi de réduire les marques à des occasions d’achat ou d’usage un peu secondaires, et laissant ainsi la proximité et la fréquence aux MDD. Elles prennent le risque d’être moins présentes dans le quotidien des consommateurs. Enfin, cette montée en gamme ne semble pas correspondre au besoin de proximité que les gens recherchent aujourd’hui.

    La stratégie du low cost n’est pour autant pas une voie facile…

    Non. C’est un autre réflexe classique des entreprises, qui cherchent à identifier le prix psychologique susceptible de faire basculer les consommateurs des MDD vers les marques nationales. En termes d’études, cela se traduit par des recherches où on cherche à identifier ce que le consommateur valorise pour un produit ou un service donné. La logique étant de supprimer les composantes qui ne sont que peu valorisées. Ça ne correspond plus vraiment à ce que les gens attendent. Aujourd’hui ils ne veulent pas forcément moins cher, mais ils en veulent plus pour leur argent.

    Quelles sont donc les alternatives possibles pour les marques ?

    Elles doivent à notre sens mieux entendre les nouvelles aspirations des consommateurs. Ceux-ci ne se retrouvent pas dans cette fragmentation un peu stéréotypée voire parfois caricaturale des offres et des marques. Et ce phénomène « d’encrisement » que nous avons précédemment évoqué les conduit à revisiter la question de ce qui a de la valeur pour eux, de ce qui est vraiment utile, de ce qui leur apporte une vraie différence, de ce qui change leur vie. Ils sont très matures pas rapport à cela. Ils ont parfaitement intégré que le produit le plus cher n’est pas nécessairement le meilleur, et qu’a contrario le produit le moins cher n’est pas forcément la meilleure affaire. Ils ont une vision très critique : ils remettent en cause les intermédiaires qui tirent les prix vers le haut sans apporter une réelle utilité en contrepartie. Les « crises » que nous avons connues dans l’univers alimentaire ont eu un effet dévastateur en ce sens : pourquoi donner de l’argent à des marques qui agissent comme des intermédiaires, qui transforment souvent en dénaturant plus qu’en optimisant ? Quelle est donc leur vraie valeur ajoutée ? Ce phénomène consistant à supprimer les intermédiaires est à l’œuvre dans beaucoup de domaines, comme ceux du transport et du tourisme, c’est ce que d’aucun appelle « l’uberisation » des marché. Cela s’étend déjà à la distribution alimentaire des produits bruts par exemple.

    Les marques doivent donc plus que jamais démontrer leur utilité...

    Absolument. Elles doivent faire en sorte qu’il n’y ait pas de doute sur ce point. Les consommateurs valorisent de plus en plus l’authenticité des démarches et des produits. C’est assez flagrant dans le domaine alimentaire. Les consommateurs sont suspicieux face à des démarches de transformation qui apparaissent comme étant de nature industrielle ; ils préfèrent très largement avoir le sentiment que les produits sortent d’une cuisine, pas d’un laboratoire. Le besoin d’une reconnexion avec la terre, avec les producteurs est manifeste. Cette reconnexion avec le « brut » est une façon d’avoir le sentiment de reprendre le contrôle sur les choses et de ne pas s’en remettre à la boîte noire des industriels.

    Cette notion de proximité vous semble délaissée par les marques ?

    En effet, beaucoup de marques ont peur d’avoir une image « populaire » car elles confondent « popularité » et « bas prix ». Elles craignent de passer pour un peu « beauf », pas assez différenciées versus les MDD. Alors que c’est un formidable avantage pour une marque que d’être perçue comme populaire ! Etre populaire c’est être dans la proximité physique (fréquence), mentale et culturelle avec sa cible, être considéré comme utile et indispensable. Enfin, cela peut se révéler plus économique car les codes du populaire sont plus pérennes que ceux du premium.

    Une dernière question : est-ce que le phénomène que vous avez évoqué - avec cette « binarisation » des stratégies entre premiumness et low cost - ne met pas le doigt sur des carences dans le domaine des études ? Et si oui, comment les entreprises peuvent-elles corriger le tir ?

    La premiumisation a certainement un net avantage si une entreprise souhaite optimiser sa performance économique à relativement court terme. Mais si on veut voir plus loin, alimenter une réflexion qui soit plus orientée vers le moyen et le long terme, il vaudrait mieux considérer les évolutions de la consommation comme structurelles et privilégier les études exploratoires et visionnaires investiguant comment la marque peut apporter un vrai plus crédible et pertinent aux consommateurs, dans le produit, mais aussi dans les services associés au produit.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Bertrand Minot 

    • Demander une présentation de la revue "Tendances & signaux faibles" de Qualeïa

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Marque / Résultats d'études /
  16. Le Nudge marketing : une révolution qui ne fait que commencer – Interview d’Eric Singler, Directeur Général du groupe BVA en charge de la BVA Nudge Unit

    2 juil. 2015

    Nous le savons tous, le marketing est une discipline qui fait la part belle au pragmatisme. Cela ne signifie pas pour autant que les soubassements théoriques sont absents, bien au contraire, mais il n’est pas si fréquent que de nouvelles idées apparaissent et remettent en cause son cadre conceptuel.

    Pour Eric Singler (BVA), c’est pourtant bien une réelle révolution qui se produit avec la diffusion des théories du Nudge. C’est tout l’objet du propos de l’ouvrage qu’il vient de publier aux éditions Pearson, « Nudge Marketing, comment changer efficacement les comportements ». Il répond ici à nos questions dans le cadre de notre grande interview de l’été.

    MRnews : Si l’on cherche dans un dictionnaire la traduction française du mot « Nudge », le premier terme qui vient est celui de « coup de pouce ». Cette traduction est-elle la bonne ?

    Eric Singler : Oui, ce terme de « coup de pouce » est tout à fait approprié. On peut aussi parler d’encouragement ou d’«incitation douce ». La grande idée, qui résume à la fois le paradoxe et la beauté du Nudge, c’est qu’avec des actions peu couteuses et pouvant même paraitre anecdotiques en premier regard, on peut obtenir des résultats spectaculaires sur les changements comportementaux, plus efficacement que n’en produiraient par exemple des campagnes de communication massives. Derrière cela, il y a un changement de paradigme extrêmement important à appréhender. Avec le Nudge, on sort de cette logique consistant à penser qu’il suffit de donner la bonne information aux individus pour que, en vertu de leur rationalité supposée, ils changent de  comportement. On vise à créer une architecture de choix qui incite les gens à se comporter de manière vertueuse, que ce soit pour eux-mêmes, pour la collectivité à laquelle ils appartiennent, ou même pour la planète.

    Le Nudge a pour objet d’amener les individus à changer de comportement. Est-ce qu’il peut échapper au procès de la manipulation ?

    Tout d’abord, il faut rappeler que tout est influence ou manipulation.. Formuler cette critique à l’égard du Nudge équivaut à oublier que la « manipulation ou l’influence » - ou dit autrement le fait de vouloir changer des comportements - est partout : l’enfant « influence » ses parents, nous « influençons » une personne lorsque nous cherchons à la séduire, l’état nous « influence » pour nous inciter à voter ou à payer nos impôts… De fait, le Nudge à bien vocation à inciter les individus à passer d’un comportement A à un comportement B. C’est ce que fait à sa façon la loi, qui nous oblige à un certain nombre d’actions, ou bien les incitations économiques (via les taxes et les subventions). Ou bien encore l’information, comme lorsque l’état oblige à apposer la mention « fumer tue » sur les paquets de cigarette. Le Nudge, le fait d’agir sur les architectures de choix, est en quelque sorte la quatrième voie pour changer les comportements des gens après les trois que nous venons de citer. Elle le fait différemment, mais aussi avec un cadre éthique extrêmement précis : il s’agit d’inciter les individus à adopter des comportements qui, comme nous l’avons évoqué, soit bénéfique pour l’individu sa collectivité ou notre planète. C’est ce qui explique notamment le fait que les pouvoirs publics aient été les premiers à utiliser le Nudge.

    Le Nudge marketing apparait comme une démarche très pragmatique. Mais il s’appuie néanmoins sur un corpus théorique qui a le vent en poupe, celui de l’économie comportementale. Jusqu’à quel point cette école remet-elle en cause les théories jusqu’ici dominantes dans la compréhension de la psychologie humaine ? 

    Le soubassement théorique du Nudge, c’est en effet l’économie comportementale et avec elle une nouvelle compréhension des facteurs d’influence des décisions et des comportements humains, en opposition radicale avec ce qui s’est dit pendant longtemps quant à la psychologie humaine, disons depuis Descartes. L’économie comportementale remet en cause la notion d’une décision humaine qui serait le fait d’une sorte de « superman »: un individu qui aurait la capacité cognitive d’analyser toutes les dimensions d’un choix, de prendre ainsi des décisions parfaitement rationnelles sans que ses émotions entrent en jeu, avec des préférences claires et stables dans le temps. Ce superman, c’est homo-economicus, qui « calcule » donc des « utilités » et prend la décision qui maximise sa satisfaction. Des expérimentations, qui ont démarré dans les années 1970 aux USA, ont peu à peu invalidé ce paradigme. Des chercheurs, issus à la fois du monde de l’économie et de la psychologie dont les principaux sont Daniel Kahneman, Amos Tversky et Richard Thaler ont progressivement constitué un nouveau champ intitulé « la behavioral Economics ». Ils ont mis en évidence le fait que les décisions que nous prenons tous les jours dans la vraie ne sont pas si rationnelles que cela. Et point majeur, ils montrent que nos illogiques de décisions sont systématiques. Nous sommes « Predictably Irrational », pour reprendre le titre du livre de Dan Ariely, qui est à la fois un grand chercheur et un formidable marketeur de la Behavioural Economics. Dit autrement, il y a des mécaniques, des lois, des biais récurrents : ce sont des facteurs d’influence, que les théoriciens de l’économie comportementale vont donc s’efforcer de répertorier et de décrire.

    Pouvez-nous donner des exemples de ces facteurs d’influence ?

    Un des biais bien connus, puisque c’est de cela qu’il s’agit, c’est celui du « temps présent » : nous sommes focalisés sur le court terme. Nous survalorisons les bénéfices à court terme contre le long terme et reportons systématiquement les efforts à demain. C’est ce qui nous incite par exemple à repousser à plus tard des examens de dépistage, qui pourraient nous éviter la maladie à échéance de quelques années, mais qui ont la réputation de ne pas être très agréables à passer… L’aversion au risque ou à la perte est un autre biais. Plus largement, les chercheurs ont identifié trois familles de facteurs d’influence. La première est celle des facteurs dits personnels. En font partie ceux que nous venons de citer, ainsi que des notions comme l'amorçage ou l’ancrage. La seconde porte elle sur les interactions sociales. Nous sommes de fait très influencés par les comportements des autres, et par l’idée de ce que pourraient penser les autres quant à nos propres comportements. Et la troisième grande famille est celle des facteurs situationnels : nous ne prenons jamais des décisions autrement que dans un contexte et un environnement donné dont les caractéristiques influencent nos comportements : la taille d’un frigo va, par exemple, changer la nature des formats achetés ou celle d’une assiette la quantité consommée . Et donc changer l’environnement dans laquelle une personne doit prendre des décisions va nécessairement avoir une influence sur celles-ci.

    Toutes ces lois ont été définies à l’issue d’expérimentations ?

    Absolument. C’est une des caractéristiques majeures de cette école de pensée. L’expérimentation est la méthode clé, et le comportement humain est résolument l’indicateur central. Ces expérimentations ont notamment démarré avec Richard Thaler qui a dans un premier temps relevé ce qu’il appelait lui-même des « anomalies » : des exemples qui semblaient contradictoires avec les lois communément admises de l’économie et de la psychologie humaine. Jusqu’à ce que, découvrant de plus en plus d’anomalies, il prenne conscience qu’en réalité ces lois étaient invalides.

    Ces travaux remonte aux années 70, et donc à près de quarante ans en arrière. Ils sont donc très longtemps restés confidentiels…

    En effet. Mais une série d’évènements ont propulsé le Nudge sous le faisceau des projecteurs. Le premier se produit en 2002, avec l’attribution du prix Nobel d’Economie à Daniel Kanheman, le père fondateur de la Behavioural Economics, ce qui donne ainsi une légitimité scientifique extraordinaire aux travaux d’une dizaines de chercheurs jusqu’ici plus ou moins considérés comme des « rebelles » relativement marginaux. Le deuxième coup d’accélérateur se produit en 2008, avec la publication de Nudge (écrit par Richard Thaler et Cass Sunstein), qui bénéficie d’un retentissement important en opérationalisant les acquis de la Behavioral Economics : comment, partant, de cette nouvelle compréhension, concevoir des actions de changement comportemental plus efficace. Le 3ème évènement majeur intervient tout de suite après, en 2009, lorsque Obama nomme Sunstein à la tête de l’Office de Régulation américaine pour appliquer les théories du Nudge.

    Les politiques commencent à utiliser le Nudge…

    Absolument. Cela commence avec Obama, qui avait connu Sunstein quand ils étaient professeurs ensemble à Chicago. Et quelques mois plus tard, c’est au tour de David Cameron de créer au 10 Downing Street une équipe dédiée à l’utilisation du Nudge, que les journalistes vont très vite qualifier de Nudge Unit. A partir de là, tout s’accélère : dès lors que le Nudge commence à être appliqué dans le cadre des politiques publiques, des cas sont publiés en toute transparence, et donnent ainsi largement à voir l’efficacité potentielle de ces théories. Dans la foulée des USA et de l’Angleterre, d’autres pays du monde anglo-saxon commencent à utiliser le Nudge : Singapour, l’Australie, , la Nouvelle Zélande. En 2014, c’est au tour d’Angela Merkel, puis d’un certain nombre de grandes organisations internationales comme la Banque Mondiale. En 2015, la Commission européenne s’y met avec la création d’une « Foresight and Behavioural Insight Unit », dirigée par Xavier Troussard. Et enfin la France depuis 2013…

    BVA est le premier institut d’études français à avoir considéré qu’il se jouait une véritable révolution avec le Nudge, au point de créer une équipe dédiée. Pourquoi ?

    Une bonne part de l’explication tient sans aucun doute à des composantes génétiques. BVA s’est toujours singularisée par une forte fibre « comportementaliste » et une intense volonté d’innovation. Je me retrouve bien sûr complètement dans cette philosophie, qui est celle qui m’a guidé avec Alain Sivan dans la création des premiers magasins reconstitués par IN VIVO en France. Mais il faut ajouter à cela la forte connexion que nous avons toujours eu à cœur de développer avec le monde universitaire, et qui nous ainsi amené à nouer des partenariats avec des institutions comme la London School of Economics et des grands universitaires comme Dan Ariely.

    BVA s’est « appropriée" les travaux de l’économie comportementale et du Nudge marketing, popularisés en particulier par Dan Ariely. Mais avez-vous simplement appliqué ces travaux, où est-ce qu’il y a une spécificité BVA dans la façon d’exploiter et de pratiquer le Nudge Marketing ?

    Le schéma d’intervention - que nous appellons le BVA NudgeLab - se déroule en 4 temps. La première phase consiste à observer les comportements de façon à partir d’une approche« ethn’holistique ». En clair, nous identifions le rôle des 3 grandes familles de facteurs d’influence que nous avons évoquées, en nous efforçant de comprendre les freins explicites et implicites à l’adoption du comportement souhaité mais aussi les leviers potentiels. Dans un second temps, nous partageons cette compréhension dans le cadre d’ateliers de créativité – les NudgeLab -, animés selon les principes du design thinking et intégrant des outils spécifiques de stimulation et de guide de la créativité des participants. Ceux-ci sont sélectionnés pour constituer une collectivité créative à partir de profils variés : des représentants des différentes fonctions de notre client, des experts du Nudge, des experts sectoriels, des créatifs, mais aussi , des usagers ou consommateurs… On croise les barrières et les leviers identifiés précédemment avec les grands facteurs de changement et les différents points de contact consommateurs, en s’appuyant sur nos bases de données de cas. C’est ainsi que sont générées 150 à 200 idées, réduites le plus souvent à une trentaine qui sont décrites avec précision (quel levier, quels FCS, …)

    30 idées, cela reste néanmoins beaucoup…

    C’est juste. C’est ce qui justifie la 3ème phase – l’atelier de pré sélection Experts - , qui consiste à opérer une sélection avec les décideurs concernés, en s’appuyant en particulier sur une batterie de critères spécifiques et matrice croisant ces deux dimensions : quelle est la puissance potentielle de l’action ? Et qu’en est-il de la facilité de mise en œuvre, coût inclus ? L’aspect éthique de l’action est également pris en compte. Cette matrice nous permet ainsi d’éliminer un certain nombre d’actions et d’identifier celles que l’on peut considérer comme prioritaires. C’est ce que nous appelons les Golden Nudges, les actions sur lesquelles nous allons nous concentrer en priorité en continuant à les travailler. La quatrième et dernière phase est bien sûr celle du test qui se fait la plupart du temps « en conditions réelles », avec des plans d’expérience. C’est ce qui permet de valider l’efficacité des actions et d’envisager des éventuelles optimisations en fonction des modifications observées quant aux comportements des individus. Nous sommes donc au global sur une combinatoire qui permet de générer des idées puissantes, tout en étant pas dans une logique de créativité « classique » puisque nous nous appuyons sur des leviers comportementaux démontrés au travers de 40 ans de recherche scientifique. C’est cette combinatoire qui nous a valu à notre process NudgeLab appliqué avec le SGMAP et la Direction des Finances Publiques d’être récompensé par le « Best case history mondial » à Esomar l’an dernier.

    Comment BVA s’est-il organisé pour adresser ces chantiers ?

    Nous nous sommes fortement inspirés de ce que l’on peut voir au sein des cabinets de consulting. Nous avons une dizaine d’experts Nudge, des personnes comme moi, Richard Bordenave ou Etienne Bressoud se sont complètement appropriées la recherche autour du Nudge. Et nous avons réalisé un gros effort de formation, pour constituer une équipe de 25 personnes qui sont nos « Experts métiers » en Nudge. Leur expertise est sectorielle (l’opinion, le health care, le transport, la grande consommation..) ; et l’on monte ainsi des projects team pour à chaque fois avoir une équipe dédiée ayant une expertise spécifique par rapport à la problématique soulevée par nos clients. Nous avons mis en place une BVA Master Class, avec une plateforme intranet – un mooc interne –pour expliquer le Nudge avec les vidéos des professeurs référents du domaine. Nous avons même poussé la démarche jusqu’à créer un système de ceinture, comme au judo, correspondant aux étapes d’expertise dans le Nudge !

    Quel bilan tirez-vous de ces premières années d’expérience autour du Nudge ?

    Honnêtement, je dois avouer que nous sommes allés bien au-delà de nos espérances. Au départ, il s’agissait pour ainsi dire d’une passion personnelle partagée avec Richard Bordenave et Etienne Bressoud. Mais j’ai bénéficié d’un très fort appui de la part des autres membres du board de BVA Gérard Lopez, Pascal Gaudin et Alain Sivan. Aujourd’hui, nous avons une équipe complète en très bon ordre de marche, avec une vingtaine de clients en l’espace de quelques mois. Parmi ceux-ci les ministères de l’Economie et de l’Intérieur, le service d’information du gouvernement, le ministère de la Santé, la Mairie de Paris, la Sécurité Sociale… Mais aussi les entreprises privées, avec notamment l’univers de la santé, et de la grande consommation. Nous avons un projet en cours extrêmement intéressant dans le domaine de l’immobilier puisque dans le cadre d’un concours d’architecture intitulé « Ré-inventer Paris », nous avons proposé en partenariat avec un promoteur la création du premier immeuble Nudge mondial, qui inciterait à générer des éco-gestes mais aussi du bien-être individuel et collectif. Le Nudge social est également un champ extrêmement intéressant que nous avons exploré pour l’Ucanss, la démarche visant à générer un plus grand bien être que ce soit au travail ou chez soi, avec les problématiques de reconnaissance, de célébration, de recherche de sens, traitées au quotidien.

    Tel que vous le décrivez, le Nudge apparaît un peu comme un produit de l’époque…

    Oui, et même à double titre. D’une part parce que cela arrive après 40 ans de recherche qui ont révolutionné la compréhension de la psychologie humaine. Et aussi parce que cela intervient à un moment où les contraintes économiques sont particulièrement fortes, le Nudge venant lui apporter de nouvelles solutions qui peuvent être à la fois formidablement efficaces et très peu couteuses. Cela s’applique donc à beaucoup de sujets, y compris à des enjeux relatifs à la sauvegarde de notre planète ! Ce sera l’objet de mon prochain livre Green Nudge. Toutes ces raisons m’incitent à penser que nous n’en sommes qu’au début d’une révolution.

    En aidant les entreprises à élaborer les Nudges, vous intervenez selon un mode très opérationnel. Est-ce que vous ne sortez pas du rôle habituellement dévolu aux instituts des études ?

    Absolument. C’est aussi une des raisons qui fait que le Nudge est enthousiasmant pour nous. C’est à la fois à la base de notre métier, qui est de comprendre des comportements, mais en vue d’apporter des solutions concrètes à nos clients face à leurs principales questions stratégiques. Pas simplement des insights et des recommandations mais des plans d’action pour les rendre plus efficaces Nous sommes ainsi dans un rôle d’accompagnateurs, de consultants engagés et d’apporteur de solutions, ce qui est pour moi la seule voie d’avenir de notre industrie !


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Eric Singler

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News


     COMMENTAIRE(S) 

    Gilles Quel article ! Cela sort des brèves de comptoir du marketing ! Je crois que j'ai enfin (presque tout) compris ce qu'est le nudge. C'est vrai que le sujet est passionnant, on a l'impression qu'il se passe vraiment quelque chose de neuf.

    Livres, publications / Méthodologie / Vie de la profession /
  17. « Il faut donner plus d’oxygène aux processus d’innovation dans les entreprises » - Interview de Florence Hussenot et Laurence Duchier, PDG et directrice associée d’Adwise.

    2 juil. 2015

    Le monde des études est en pleine mutation, c’est une évidence. Une des conséquences de cela est l’apparition ou le développement d’acteurs quelque peu atypiques, qui remettent en cause les frontières habituelles entre cet univers et des champs connexes comme ceux du conseil en particulier.

    Nous poursuivons ce mois-ci notre découverte de ces acteurs quelque peu singuliers avec le cas d’Adwise, une structure spécialisée dans l’accompagnement des processus d’innovation, Ses deux dirigeantes, Florence Hussenot et Laurence Duchier, répondent aux questions de MRnews.

    MRNews : Quelles est votre vision du marketing d’aujourd’hui, de ses enjeux les plus essentiels ?

    Florence Hussenot et Laurence Duchier : Le premier enjeu qui nous vient à l’esprit est celui de la fragmentation des médias et donc de la relation des consommateurs aux marques. Il faut certainement ajouter à cela le fait que les consommateurs se sont appropriés les technologies et les outils d’aujourd’hui, ce qui leur donne accès à un niveau d’information et même à une forme d’expertise nouvelle. Il y a dix ou vingt ans, ces consommateurs avaient tendance à dire « c’est de la pub » lorsqu’ils critiquaient les marques. Aujourd’hui, ils disent « c’est du marketing ». Les codes sont devenus souvent si apparents qu’ils ne fonctionnent plus. Tout cela met le marketeur sous pression, avec une injonction permanente à trouver des idées nouvelles et pertinentes, dans un contexte où la pression du timing est extrêmement forte. Il est sous pression vis à vis du consommateur, mais aussi au sein de sa propre entreprise. Il doit composer avec des services comme la R&D ou les équipes en charge du digital, alors même que ces fonctions sont essentielles pour lui, pour conquérir de nouveaux clients et développer de nouvelles offres. Ce sont les constats qui nous semblent à la fois justes et essentiels dans la vision que nous avons de notre mission.

    Précisément, comment définiriez-vous la mission d’Adwise ?

    Dans le contexte que nous venons d’évoquer, nous concevons notre vocation comme étant d’accompagner les équipes marketing, le plus complètement possible : en poussant les frontières du brief initial et en intégrant des briques qui sont ordinairement plutôt dissociées. Essentiellement sur des enjeux d’innovation et de régénération des offres et aussi sur des chantiers de marque, les deux étant le plus souvent assez fortement imbriqués. Pour ce qui est de la marque, nous intervenons par exemple sur des problématiques de positionnement – ou de re-positionnement – également sur des créations de nom, ou bien encore sur des aspects de gestion d’un portefeuille de marque.

    La double composante études et conseil, qui est présente dans votre positionnement, est revendiquée par un certain nombre d’acteurs du marché. Comment se retrouve-t-elle dans votre façon d’adresser les enjeux que vous avez évoqués ?

    Notre approche conseil est d’abord présente dans notre façon de considérer les problématiques en sortant du cadre. Dans notre approche BusinessFlair® par exemple, nous ne pensons pas « études » a priori, et avons à cœur de poser un regard large, décloisonné et fortement orienté « business ». Tout se passe ensuite dans la capacité à intégrer et à articuler différentes briques – dont les études font naturellement partie sans que cela ne corresponde à une exclusive – et à délivrer in fine des recommandations aussi opérationnelles et actionnables que possible.

    Les études font partie de ces briques ; mais quelles sont donc les autres ? Quel est le schéma selon lequel vous les imbriquez ?

    Les études viennent en effet s’intégrer dans la partie amont des processus que nous mettons classiquement en œuvre sur des chantiers d’innovation. Avec en particulier des études de type « exploratoire », qui permettent de comprendre qui sont les cibles et d’identifier les manques potentiels à combler sur un marché donné. Cela correspond à une phase d’ouverture, d’immersion, pour aider nos clients à se « plonger » dans leur cible. Ces études sont souvent enrichies par des interventions d’experts qui peuvent être précieuses dans la recherche des bons insights ou simplement la stimulation de bonnes idées : des historiens, des sociologues, des journalistes… Nous intégrons également fréquemment une brique qui est celle de la veille, dans une logique ad hoc : quelles sont les tendances, qu’est-ce qui se passe dans le monde sur une thématique donnée ? Par exemple, quelles sont les nouvelles façons de faire du shopping aujourd’hui ? Tout cela vient nourrir le client dans sa réflexion. Vient ensuite la deuxième grande brique qui est celle de la recherche d’idées avec et pour nos clients.

    C’est là où le plus souvent s’arrête le travail des instituts d’étude au sens classique du terme… Quelle est votre mode d’intervention au cours de cette phase ?

    A ce stade, notre travail consiste à organiser et animer le processus créatif, de sorte que l’ensemble des équipes impliquées dans le chantier (le marketing bien sûr mais aussi la R&D, le service client, la direction commerciale,…) fonctionnent en mode collaboratif. Dès lors que des premières idées ont été émises en interne, elles peuvent éventuellement être enrichies par le recours à d’autres techniques (le crowdsourcing par exemple) ; pour être enfin confrontées aux regards des consommateurs via des communautés « pop up », afin de pouvoir les optimiser. Viennent ensuite des phases clés, celles de la sélection, de l’écriture et de l’illustration avec, in fine, la production de cahiers d’idées nouvelles. Nous accompagnons donc le client tout au long du processus, en apportant du lien entre les différentes équipes de l’entreprise, en les aidant à se projeter ensemble dans le futur et surtout en étant garant de la cohérence vis-à-vis du consommateur.

    En quoi votre démarche est-elle si différente de celle d’un cabinet d’innovation ?

    Nous pensons que la très grande différence tient précisément à notre background études.  Nous pouvons nous appuyer sur plus de 20 ans d’expérience dans la connaissance du consommateur, et c’est bien celle-ci qui va innerver le processus d’innovation de bout en bout, y compris dans les phases de sélection et de retravail sur les offres, et bien sûr dans l’écriture de celles-ci. Et il nous semble qu’il y a aussi un avantage qui est celui de la neutralité. Nous ne partons pas avec des idées reçues qu’il s’agirait de recycler. Le fait de repartir systématiquement d’une connaissance profonde du consommateur - qui intègre ce que celui-ci dit ou ne dit pas - nous permet d’être dans une démarche qui produit du neuf, du frais. Entendons nous, il n’est pas question à notre sens de s’arrêter à ce que dit le consommateur. Ce n’est pas à lui de se projeter, c’est bien à nous qu’il incombe de construire une juste compréhension des choses, en allant chercher l’information de façon déstructurée.

    Votre parcours est purement « Etudes » ?

    De mon côté (Florence Hussenot), j’ai travaillé chez L’Oréal au marketing, puis chez Ipsos Insights. J’ai ensuite passé deux ans chez Opinion Way avant de créer Adwise. Laurence a quant à elle travaillé chez Millward Brown, MFR (Marie Françoise Roy) et MSM.

    Qu’est-ce qui vous semble avoir le plus changé dans la demande et les attentes des annonceurs en 8 ans, depuis la création d’Adwise ?

    Le changement le plus spectaculaire porte sans doute sur la nature des livrables. Il y a incontestablement l’attente de disposer de livrables réellement compréhensibles, avec des éléments actionnables. La demande d’accompagnement nous semble également beaucoup plus forte que par le passé, avec derrière cela le besoin d’une plus grande cohérence, de mettre le client au centre du processus de bout en bout. C’est particulièrement flagrant pour les grandes structures internationales, où les processus peuvent être assez complexes, et où l’on peut donc perdre de vue la vision du consommateur à un moment donné. Une autre évolution majeure de la demande porte sur la bonne adaptation au contexte digital : qui sont les consommateurs dans cet univers ? Comment les marques émergent-elles et entretiennent la relation avec leurs clients ? Cette digitalisation a bien sûr par ailleurs des impacts forts sur nos outils d’études…

    Cela correspond à une demande des entreprises et de vos interlocuteurs études ?

    Ceux-ci restent au global assez frileux vis à vis des nouvelles techniques d’études. Les doutes demeurent. Non, nous dirions que cette évolution est plutôt de notre fait. Notre vision étant que l’on peut élaborer des protocoles extrêmement intéressants en combinant ces nouvelles techniques avec les procédés plus traditionnels. Avec la possibilité par exemple de basculer d’un bulletin board asynchrone à un mode synchrone, de voir les consommateurs en face à face ou via Skype, de leur demander de réaliser des missions, de pouvoir les suivre tout du long de leurs parcours avec à chaque fois les outils les plus adaptés.

    Comment voyez-vous l’avenir des études ? Quelles sont les évolutions les plus probables ?

    La profonde mutation de ce métier est une évidence, la conséquence étant qu’il peut mourir s’il ne s’ouvre pas sur de nouveaux champs. Son challenge est de continuer à démontrer sa valeur ajoutée, dans un monde de sur-information. Il faut qu’il sache se nourrir auprès d’une quantité de nouvelles sources de données tout en étant le garant de la cohérence client. Les débats et les enjeux porteront de moins en moins sur les techniques, et de plus en plus sur la cohérence, sur le sens, ce qui nous va très bien !

    Et enfin, si vous étiez du côté de l’annonceur ? Qu’aimeriez-vous changer en priorité dans la façon de manager les études dans les entreprises ?

    Il nous semble que la priorité porte sur la gestion du facteur temps. Il est frappant pour nous de voir jusqu’à quel point les problématiques sont insuffisamment muries, réfléchies.  On teste un nouveau pack dans l’urgence, et au bout du compte on prend conscience qu’il y a un réel problème de positionnement, que la stratégie de marque n’est pas claire. Il serait souvent beaucoup plus efficace de prendre un peu de temps pour s’assurer avec l’équipe marketing que le chemin est le bon. Et l’autre priorité serait sans doute de donner nettement plus de place aux études exploratoires, pour ré-ouvrir la réflexion. Une vraie étude exploratoire tous les deux ans, cela correspond à une respiration nécessaire. En réalité, nous sommes plutôt sur des cycles de 4, 5 voire 6 ans ! Cela mène à des formes d’impasse dans la réflexion marketing ; il nous semble vital de prendre le temps d’une plus grande ouverture, et de donner plus d’oxygène aux processus d’innovation dans les entreprises !


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Florence Hussenot @ Laurence Duchier

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Innovation / Interviews / Vie de la profession /
  18. Comment y voir plus clair sur l’usage des communautés dans les études marketing – Interview de Philippe Guilbert, administrateur Syntec Etudes et coordinateur du Groupe de Travail Online.

    17 juin 2015

    S’il y a un terme dont l’usage a littéralement explosé dans la bouche des acteurs des études marketing, c’est bien celui de « communautés ». Mais, comme souvent lorsque de nouvelles techniques émergent et commencent à se diffuser, ce phénomène n’échappe pas à une certaine confusion et donc à de possibles malentendus, le terme de « communautés » recouvrant des approches relativement variées.

    Quelles sont donc ces différentes natures d’approches ? à quels besoins répondent-elles ? Quels sont leurs avantages spécifiques et quelles en sont les limites ? Ce sont quelques unes des grandes questions qui ont été adressées par un groupe de travail de Syntec Etudes, sous la coordination de Philippe Guilbert, qui répond aux questions de MRnews.

    MRNews : Syntec Etudes a mis en ligne il y a déjà quelques mois un document particulièrement complet sur l’usage des communautés à des fins d’études. (« Des panels dédiés & communautés aux panels communautaires : tout ce que vous devez savoir »). Pourquoi Syntec Etudes a-t-il éprouvé le besoin de se pencher sur ce sujet ?

    Philippe Guilbert : Notre travail autour de l’usage des communautés s’inscrit en réalité dans une démarche plus globale, amorcée depuis déjà quelques années. Il est évident que la diffusion de l’usage d’internet a eu - et continuera à avoir - un impact considérable sur l’univers des études marketing.  Et cet usage soulève un certain nombre de questions, en particulier celle de savoir comment le concilier avec les exigences de fiabilité et de rigueur qui sont celles de nos métiers. Ces questions sont parfaitement légitimes, et nous estimons qu’il est important que Syntec Etudes apporte aux professionnels et aux utilisateurs une grille de lecture construite sur la base d’un travail de fond réalisé collectivement par les principaux experts du marché.

    L’idée est d’apporter un mode d’emploi de ces nouvelles techniques ?

    Je ne dirais pas cela. Notre objectif est plus modeste. Classiquement, lorsqu’une nouveauté apparaît sur un marché et avec elle de nouveaux acteurs, deux attitudes extrêmes peuvent s’opposer. L’une consiste à dire que ces innovations rendent parfaitement obsolètes tout ce qui a existé par le passé. L’attitude contraire est de considérer que ces innovations sont incompatibles avec un certain nombre d’exigences essentielles. Cela a été le débat au début du recueil on line ! L’usage des communautés fait donc partie de ces nouvelles pratiques qui soulèvent des questions, d’autant plus que les pratiques associées à ce terme de communautés sont assez hétérogènes. Notre objectif est de donner des clés de lecture aux professionnels et aux utilisateurs des études. A la fois pour qu’ils puissent mieux se familiariser avec ce que recouvrent ces nouvelles approches, en apprécier les avantages et les limites. Mais aussi pour qu’ils puissent poser les questions  les plus utiles pour faire la différence entre des prestataires qui ont réellement intégré les exigences de rigueur propres à notre profession ; et les autres…

    Il y a une logique importante de pédagogie auprès des utilisateurs des études…

    Oui, c’est bien un des objectifs en effet. Mais nous ne prétendons pas avoir la « science infuse », et un des enjeux importants pour nous de partager nos réflexions au sein de Syntec Etudes, et de nous faire ainsi notre propre « pédagogie ». Nous sommes tous des professionnels connaissant parfaitement le métier des études, mais avec des parcours et des sensibilités différentes. Et il est donc indispensable que nous travaillions ensemble pour confronter nos modes de lecture et nous approprier ces nouveaux protocoles. Sans les rejeter à priori, et en essayant tout simplement de répondre le mieux possible aux besoins du marché et soutenir l’activité de chacun.

    Venons-en à l’usage des communautés et aux outputs du groupe de travail, qui était donc composé de 8 professionnels*. Il n’est pas question naturellement de revenir sur l’ensemble des conclusions des travaux du groupe, qui sont disponibles ici. Mais il nous paraît néanmoins pertinent de revenir sur un des outputs, qui est celui de la clarification du « paysage » des différentes approches associées, à tort ou à raison, à la notion de communautés…

    Le groupe a en effet identifié trois types de protocoles qu’il est réellement nécessaire de distinguer pour éviter des confusions préjudiciables. Il y a d’une part une première approche associée aussi aux Communautés, qui est celle des Panels dédiés ou encore Panels propriétaires. Dans le cadre de ces panels, on recrute entre plusieurs centaines et plusieurs milliers de participants, pour une durée allant de quelques mois à quelques années, et avec un mode de fonctionnement que l’on pourrait qualifier d’« à sens unique ». Nous attendons par là qu’il n’y a pas d’interactions entre les membres du panel, ce qui rend l’appellation « Communauté » incorrecte. Les membres sont seulement régulièrement sollicités pour participer à des enquêtes. Ce type de protocole sans discussions entre membres se prête particulièrement bien à la mise en œuvre de tracking, de carnets de consommation ou de tests de concepts.

    Vous l’avez dit, ce protocole ne relève pas vraiment de la logique des communautés. Quels sont donc les protocoles qu’il est justifié d’associer à la notion de communautés ?

    On en trouve en réalité deux, bien distincts. Celui qui est apparu dans un premier temps sous le terme « Bulletin Board » et maintenant souvent désigné comme « Communautés Online ». En comparaison avec les panels dédiés, l’idée est de travailler sur des bases nettement moins importantes (quelques dizaines de consommateurs, plus rarement quelques centaines), mais aussi et surtout avec une logique d’échanges très différente : les échanges se font en continu, sur des thèmes lancés par le modérateur, et avec l’objectif de susciter des interactions entre les membres. La logique est donc à dominante qualitative. En termes d’application, ce protocole est le plus souvent utilisé pour générer des idées, dans le cadre de développement ou de tests de produits.

    Reste un troisième type de dispositif, qui bénéficie aujourd’hui d’un très fort intérêt, qui est celui des panels communautaires…

    Absolument. On peut assimiler le panel communautaire à une forme de point de rencontre entre les deux protocoles que nous venons d’évoquer. Avec des panélistes pré-recrutés pour répondre à des enquêtes qui peuvent tout aussi bien être qualitatives que quantitatives, mais au sein d’une même plateforme. Et avec la mise à disposition d’un espace dédié où les panélistes peuvent s’exprimer sur leur expérience consommateur et interagir.

    Ce type de dispositif semble souvent présenté comme une sorte d’idéal…

    Il est vrai que, d’une certaine manière, il combine les atouts des communautés et des panels, en offrant les avantages d’une très grande souplesse d’interrogation. On peut interroger les gens, qualitativement et/ou quantitativement, mais aussi « simplement » observer et analyser leurs échanges sur une variété extrêmement large de thèmes et d’angles. Mais c’est un protocole qui n’est pas si facile à mettre en œuvre. Il suppose un investissement important, en termes de technologie et de temps à y consacrer. La qualité de l’animation et de la gestion du panel constitue un point critique, et il ne faut pas sous-estimer la difficulté à mettre en place un community management efficace, taillé pour des communautés qui comptent des centaines, voire même parfois des dizaines de milliers de membres : l’aspect social et viral de la communauté permet d’atteindre cette taille dans certains secteurs ou pour certaines marques. Ce sont des enjeux sur lesquels l’improvisation et le manque de compétences mènent droit à la catastrophe.

    Vous l’avez évoqué en préambule, le thème des communautés n’est pas le premier auquel vous vous êtes intéressés au sein de Syntec Etudes au sein de ce groupe de travail. Quels sont les autres dossiers sur lesquels ce groupe s’est penché ?

    Le tout premier enjeu sur lequel nous avons travaillé est celui du recueil et des panels online, ce qui correspondait en quelque sorte à la première révolution générée par l’usage d’internet dans les études avec des interrogations tout à fait pertinentes sur les avantages et les limites associés à ces protocoles. Il y a quelques mois, nous avons fait le point sur l’usage du mobile en France en tant qu’outil de recueil des données, et avons notamment organisé une rencontre-débat avec Ray Poynter (l’auteur du Handbook of Mobile Market Research) en janvier dernier pour nous confronter aux pratiques internationales dans ce domaine. Plus récemment et dans le cadre du Printemps des Etudes, nous avons évoqué l’usage du Social Listening via un Case Study sur le thème de l’homme augmenté.

    Quels sont les prochains thèmes et les prochains protocoles sur lesquels le groupe de travail de Syntec Etudes a prévu de se pencher ?

    Nous allons décider de cela dans les jours qui viennent, sachant que ces thèmes se définissent à la fois en fonction des réactions des membres de notre syndicat, mais aussi de la volonté des gens d’y participer, ce qui suppose un engagement non négligeable. Mais après avoir assez largement évoqué les enjeux relatifs au recueil des données, il est probable que le groupe s’occupe maintenant de « Méthodes et solutions » en élargissant son champ de réflexion et d’actions. Ce qui peut inclure par exemple en Quali l’analyse de contenu et l’ethnographie, en Quanti le traitement des données et la modélisation, en Quali-Quanti les missions en magasin, voire des problématiques comme le Do It Yourself et le Big Data. Il est clair en tout cas que nous avons vraiment à cœur de nous intéresser à ce qui « bouge » et « fait bouger » notre univers, sans éluder des questions qui peuvent parfois susciter des débats assez passionnés.

    * Le groupe de travail de Syntec Etudes était composé de Caroline Belkhir (Toluna), Christine Caggia (Askia), Bruno Colin (Socio Logiciels), Pascal Ferrero (Enov Research), Kevin Jacquet (TNS Sofres), Gaëlle Laurent (Bilendi), Hervé Le Fur (Harris Interactive) et Léa Turquier (Ipsos)


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Philippe Guilbert

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Livres, publications / Méthodologie / Vie de la profession /
  19. Ce que les archétypes de Jung peuvent apporter aux marques - Interview de Michel Montrosset, auteur de Marketypes

    28 mai 2015

    Et si un détour par les travaux de Jung et ses fameux archétypes pouvait apporter une réelle plus-value dans la réflexion sur les marques, tant pour prendre pleine conscience de leur statut et de leur rôle dans notre société que pour les aider à mieux se différencier ?

    C’est le fil conducteur qu’ont suivi Michel Montrosset et Thibaut Ferrali, tous deux planners stratégiques et co-auteurs de l’ouvrage Marketypes qui vient d’être publié par les Editions François Bourin. Michel Montrosset répond aux questions de MRnews.

    MRNews : En tandem avec Thibaut Ferrali, vous venez de publier Marketypes, un ouvrage à destination des acteurs du marketing et de la communication. Cet ouvrage est sous-titré « Les archétypes de Jung au service des marques ». Pourquoi ce détour par les travaux de Jung ?

    Michel Montrosset : Nous sommes partis d’un chiffre assez étonnant, mais qui a conforté et traduit les impressions que nous avions depuis quelques temps à propos de la place des marques dans la société. 65% des Français considèrent les marques comme une des seules entités capables de prendre en charge un changement de société. De ce point de vue là, elles devancent largement les politiques et les institutions, mais aussi les artistes ou les intellectuels, les scientifiques. Volontairement ou pas, les marques ont fini par remplacer les représentations collectives traditionnelles, nos modèles de construction, de comportement et d’attitudes qui structurent nos vies. A partir de là, et en l’absence d’outil renseigné, il nous a semblé important de dresser une cartographie de ces modèles, d’en proposer une grille de lecture et de compréhension. Et pour cela, quoi de plus approprié que les travaux de Jung sur les archétypes (puisque c’est bien d’archétypes qu’il s’agit) et surtout quoi de plus robuste que l’approche des types, développée scientifiquement par Myers et Briggs à travers le MBTI, l’indicateur de personnalité le plus utilisé au monde aujourd’hui ? C’est ce que nous avons adapté aux marques et à leurs relations aux consommateurs.

    D’autres auteurs se sont précédemment intéressés à cette application des archétypes à l’usage des marques et de leur storytelling. Quel est le point d’originalité que vous avez visé avec Marketypes ?

    Il nous semble qu’il y a quelques différences importantes. Nous avons notamment adopté le parti-pris d’être exhaustif, de ne pas choisir tel ou tel type parmi les seize définis par le MBTI pour disposer d’une cartographie à plat, universelle et opérante. Mais celle que nous revendiquons plus particulièrement, c'est le fait que notre approche des types est 100% dynamique et relationnelle. Typer une cible ? Catégoriser une marque ? Chouette ! Mais pour en faire quoi ? On définit une tendance type de marque et une tendance type de consommateur... essentiellement pour leur trouver des caractéristiques de points de rencontre. L’essence du marketing et de la communication, c’est de mettre en relation, de se faire rencontrer et s’aimer le plus longtemps et intensément possible une marque, ses produits et des consommateurs à partir de leurs besoins, leurs attentes, leurs désirs, leurs rêves, etc. Se concentrer sur la compréhension de cet engagement, sur la nature profonde, essentielle et archétypale de cette relation idéale, fantasmée, réelle, virtuelle, concrète, quotidienne fait aller plus vite, plus juste et plus simplement aux solutions.

    Vous nous proposez donc une galerie de 16 « Marketypes », répartis en 4 grandes familles. Prenons déjà ces dernières : qu’est ce qui les différencient fondamentalement les unes des autres ?

    Chaque grande famille remplit une fonction individuelle et sociale, à des degrés différents. Les Faiseurs agissent et font, ce sont les types les plus physiques et incarnés. Les Gardiens consolident et reproduisent, ce sont les plus instinctifs et les plus intégrés. Les Explorateurs ouvrent des voies et inventent, ce sont les plus culturels et ouverts. Les Guides montrent le chemin et éduquent, ce sont les types les plus intellectuels et collectifs. Nous avons donc affaire à quatre énergies complémentaires, de la plus physique à la plus intellectuelle, sans aucune hiérarchie ou jugement de valeur, quatre façons d’être sans lesquelles personne, individu ou société, ne pourrait totalement exister.

    Et ensuite, à l’intérieur d’une famille donnée, est-ce que ce sont nécessairement les mêmes axes qui permettent d’appréhender l’originalité propre à chacun des types ?

    Chaque famille héberge quatre types que l’on va définir en fonction des préférences d’une part en matière d’orientation (introversion ou extraversion) et d’autre part en matière de jugement (objectif ou subjectif). Par exemple, au sein des Gardiens, on trouve deux types extravertis dont l’un est porté vers le partage avec les autres, le Supporter, et l’autre sur la réalisation des choses, le Manager. On retrouve ainsi à chaque fois des traits d'humanité qui permettent de mieux isoler la personnalité de la marque et des consommateurs.

    L’un de vos partis-pris d’écriture a consisté à illustrer la présentation des types avec de nombreux cas, en évoquant ainsi les marques les plus emblématiques de chacun d'eux. Il est naturellement difficile de résister à la tentation de vous demander quel marketype se cache derrière la marque Samsung, qui est celle pour laquelle vous travaillez aujourd’hui...

    La question de Samsung nous semble intéressante à deux titres. Lorsqu’on regarde la marque sous l’angle de son cœur d’identité, de son essence, elle est un excellent exemple de ce qu’est une marque Manager, offrant le support et la productivité de ses produits et aidant dans la réalisation des projets (cf. la campagne de marque « Launching People ») et in fine donnant accès au plus grand nombre à de nouvelles possibilités de vie. Mais lorsqu’on prend de la distance dans le temps et dans l’espace, on se rend compte qu’elle est aussi une Megabrand, un géant généraliste, qui a besoin par moments d’un peu plus d’espace en communication : elle peut donc s’autoriser des prises de parole basées sur d’autres types avec des structures d'engagements différentes, comme des campagnes produits très Epicurien ou des actions purement Novateur. D’où l'intérêt de cette approche relationnelle et dissociée.

    On peut penser que cet ouvrage intéresse prioritairement les brand managers et les spécialistes de la communication. Mais il peut aussi nourrir la réflexion des spécialistes des études, en proposant un regard différent sur les marques. Outre le fait de le lire bien sûr, auriez-vous un conseil à leur proposer quant à la meilleure façon de s’approprier le contenu de ce livre ?

    Marketypes n’est surtout pas un pré-carré pour une profession donnée. Nous l’avons conçu en pensant à ceux qui ont pris l’habitude de travailler sans outil particulier. Il peut être utilisé par les marketeurs, les professionnels des études, de la communication... même par un passionné. Pourquoi ? Parce qu’à notre connaissance, il n’y a pas d’outil capable de répondre à des besoins aussi larges, allant de la simple recherche d’idées à l’établissement d’une plateforme de marque, en passant par la compréhension d’un insight. Nous avons tenu aussi à ce qu’il présente un double visage, qu’il soit à la fois sensible, ludique, participatif mais aussi rationnel, sérieux et introspectif. Marketypes peut s'utiliser en fil rouge, quelques minutes pour structurer sa pensée, ou de manière suivie sur un gros projet de positionnement : tout dépend du contexte et de la personne qui l'utilise.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Michel Montrosset

    Commander le livre Marketypes

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Livres, publications / Marque /
  20. Quelles priorités dans le développement des compétences au sein des équipes Etudes Marketing : la vision de Mary Le Gardeur (Mix & Match)

    26 mai 2015

    Parmi les multiples questions soulevées par la mutation de l’univers des Etudes Marketing, celle de savoir quelles sont les priorités quant aux compétences à développer se pose avec une acuité toute particulière au sein des entreprises.

    Ayant intégré ce thème pour la première fois cette année dans le cadre du baromètre Market Research News / Callson en collaboration avec Mary Le Gardeur (Mix & Match), nous avons interrogé cette spécialiste RH de notre univers pour recueillir sa vision et ses commentaires quant aux principaux résultats de ce volet.

    MRNews : S’agissant des compétences à développer au sein des équipes études, deux priorités ressortent clairement dans l’esprit des décideurs Etudes* au vu des résultats du baromètre MRnews-Callson : la culture du digital, et le domaine des data analytics. En d’autres termes, cela semble indiquer que la priorité des priorités pour les équipes études est de s’adapter à un changement de contexte ? Cela fait-il sens par rapport à vos observations sur les besoins des entreprises ?

    Mary Le Gardeur : Il nous parait tout à fait logique que les décideurs études évoquent spontanément le data et le digital. Ces dimensions sont d’ores et déjà omniprésentes dans notre quotidien et posent beaucoup de questions aux dirigeants français, plus de 80% d’entre eux se déclarant non préparés à ces phénomènes. Mais je suis tentée de dire que ce sont là des dimensions incontournables : nous le savons, nous allons tous devoir composer avec le digital et le big data. Je pense donc que la différence se fera également ailleurs, et en particulier sur des aspects de créativité et d’innovation. De façon plus sous-jacente, cela intègre d’autres composantes essentielles telles que la capacité à persuader, la curiosité et l’ouverture d’esprit, mais aussi l’intuition. Je crois également qu’un des grands virages que nous vivons est la généralisation du travail en mode collaboratif, et que celui-ci n’est pas encore intégré autant qu’il devrait l’être.

    Comment peut-on rendre les équipes études plus créatives, inventives ? Est-ce que la formation peut réellement contribuer à cela. Ou bien est-ce d’abord un enjeu de recrutement ?

    Le recrutement et la formation (qu’elle soit diplômante ou continue, formalisée ou non) sont parfaitement complémentaires. Sur l’aspect recrutement, les décideurs pourraient probablement prendre un peu plus de risques qu’ils ne le font aujourd’hui, dans le sens d’un investissement et d’un pari sur l’avenir. Pour ce qui est des formations, elles pourraient intégrer naturellement ces dimensions de créativité et d’innovation, même si elles peuvent paraître un peu perturbantes à première vue. C’est ce qui peut permettre d’anticiper un futur finalement non maitrisé parce que difficilement prévisible.

    Les résultats de notre baromètre sur ce volet RH témoignent-ils d’une forme d’atypisme s’agissant de la sphère du Market Research, ou bien sont-ils au contraire révélateurs de tendance de fond assez transversales ?

    Les études marketing ne sont qu’un des maillons de la chaine d’innovation. On peut même penser que par nature, elles reflètent très fortement ce qui se passe ailleurs, en étant un baromètre très sensible des enjeux des entreprises. Il est donc naturel que les tendances les plus marquantes soient partagées avec les autres sphères. La vraie question est : comment les professionnels études vont-ils ré-agir à ce contexte ?

    Le paradoxe est bien connu. Les individus ont le plus souvent le sentiment que le marché de l’emploi est difficile et n’offre que peu d’opportunités. Alors que les entreprises ont souvent du mal à trouver les compétences qui les intéressent. Ce paradoxe s’applique-t-il à l’univers du « market research » ? Et si oui, quelles sont donc les compétences qui font la différence pour les candidats à la recherche d’emploi ?

    Ma conviction est que la capacité d’un candidat à apporter de la valeur à une entreprise et à faire la différence reposera de plus en plus sur son aptitude à réunir et à faire valoir une combinaison unique de compétences. Ces compétences peuvent être techniques ou personnelles, et doivent s’associer à une facilité et/ou une expérience pour un certain nombre de domaines, des secteurs ou des branches d’activité notamment.

    Il y a un an, vous évoquiez une "attirance de la part des entreprises pour des recherches de compétences délimitées dans le temps, archi spécialisées et flexibles », symptomatique d’une prise de risque limitée de leur part. Ce constat est-il encore valide aujourd’hui ?

    Les entreprises sont plutôt économes actuellement, et elles sont peu nombreuses à pouvoir ou vouloir prendre de véritables risques. Alors que les marges de manœuvre et les alternatives existent, en particulier pour ce qui est des contrats de travail et de leur durée.

    Compte tenu de tout cela, quels conseils seriez-vous tenté de donner aux managers Etudes quant à leur politique de formation et de recrutement ?

    Il est important de prendre un peu de temps de réflexion, celui qui est nécessaire pour étudier le capital humain dont il dispose, pour déceler les tendances et aussi comprendre encore mieux la notoriété et l’image de leur entreprise sur le marché du travail.

    Et enfin quels conseils donneriez-vous à des personnes aujourd’hui en poste sur des fonctions études en entreprise. Comment peuvent-elles exploiter au mieux les opportunités ?

    Je crois qu’il est nécessaire y compris pour les acteurs des études de porter un autre regard sur leur fonction, en l’appréhendant non pas comme fermée mais au contraire transversale, exportable et multi-expertises. L’appétence pour la découverte fait partie de son ADN, et elle occupe une place privilégiée au sein de l’entreprise, aux confluents des divisions stratégiques. Oui, bien sûr, le métier des études est bousculé, et son monopole sur la connaissance des clients devient moins évident, mais les opportunités sont réelles et nombreuses. Les compétences issues de ce métier peuvent apporter aux entreprises une vision holistique, une meilleure compréhension des réalités, et à l’heure de l’information massive, une certaine « esthétique » et du sens. Mais pour cela, cette fonction doit sans aucun doute travailler sur ce qui est souvent son petit point faible, et renforcer sa capacité d’action créative !    

    * Les questions spécifiques à ce volet RH ont été posées dans le cadre du baromètre Market Research News / Callson à un sous-échantillon de 100 responsables Etudes (ou Marketing) en entreprise décisionnaires sur les enjeux de recrutement et de formation pour cette fonction.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Mary Le Gardeur

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession / Résultats d'études /
  21. « L’avenir appartient à ceux qui sauront créer et gérer leurs propres flux de données » – Interview de Jérôme Sopocko (Askia)

    22 mai 2015

    Il y a deux ans, Jérôme Sopocko répondait à nos questions sur le futur des études avec sa casquette de co-fondateur d’Askia - un des acteurs de référence dans l’univers des logiciels dédiés aux études marketing - en soulignant l’importance déterminante d’enjeux tels que l’intégration des données, la place du mobile, et l’animation des communautés de clients.

    Quelques semaines après le lancement de Platform One, une solution logicielle particulièrement ambitieuse dont Askia est partie prenante, nous sommes revenus vers lui pour évoquer la façon dont cette vision s’est traduite dans les faits.

    MRNews : Il y a deux ans, vous répondiez à nos questions sur le futur des études (cf. notre interview). Et vous mettiez notamment en exergue deux enjeux majeurs : celui de l’intégration des différentes données relatives à la connaissance des consommateurs, mais aussi celui de l’animation des bases clients. Il y a quelques semaines, vous avez annoncé le lancement de Platform One, en partenariat avec deux entrepreneurs spécialistes du milieu des études. Est-ce à dire que vous êtes passés de la théorie à la pratique ?

    Jérôme Sopocko (Askia) : Absolument, c’est bien l’ambition que nous sommes donnée avec Platform One. Il s’est même écoulé trois ans entre nos toutes premières réflexions et le lancement de notre nouveau bébé. Avec un tel temps de conception, on ne pourra pas nous reprocher d’avoir mis au monde un prématuré (rires). Il est clair en tout cas que la complexité a été un facteur important de la durée de gestation de Platform One.

    En quelques mots, qu’est-ce que le produit Platform One ?

    Sur le plan technique, il s’agit d’une plateforme logicielle. Nous avons conçu celle-ci avec l’objectif essentiel d’aider nos clients à intégrer trois types d’éléments différents : les variables issues des études quantitatives, les matériaux qualitatifs, et enfin les données comportementales. Ce principe d’intégration est naturellement extrêmement important. Mais il faut ajouter le fait que l’intégration de ces différents éléments peut se faire « en dynamique », ce qui donne ainsi une puissance d’analyse et d’action sans commune mesure avec les possibilités offertes via une base de données statique. La combinaison de ces différents points fait que cette plateforme est un super outil à disposition de ceux qui souhaitent gérer des communautés à des fins d’études, qui est clairement une des très grandes options en train de s’imposer aujourd’hui. 

    Les données d’études viennent des études, c’est bien sûr une lapalissade. Mais d’où proviennent les données comportementales ?

    Elles peuvent provenir de toutes les sources de données disponibles et faisant sens pour la connaissance des clients. Mais il est clair que le système d’information et d’analyse prend une puissance considérable lorsqu’on trace au moins une partie des comportements des consommateurs via une application mobile, embarquée dans leur smartphone. Nous avions eu l’occasion de l’évoquer, de part le principe de connexion permanente qu’il autorise, le mobile a vocation à occuper une place majeure dans les interactions avec les consommateurs, ce qui ne signifie pas pour autant qu’il sera l’interface unique, les sites web restant indispensables. L’idée de cette application mobile n’est absolument pas d’être intrusif vis à vis des consommateurs, mais d’être une interface privilégiée dans la relation vis à vis d’eux, de sorte à ce que celle-ci soit la plus intelligente possible.

    Mettons-nous donc à place de l’utilisateur de cette plateforme. Quels sont concrètement les avantages qu’elle peut lui procurer dans la connaissance des consommateurs ?

    Il me semble qu’il y a deux aspects importants. Le premier avantage est celui de la puissance et de la pertinence des analyses. En ayant accès à des données comportementales, et à l’historique des comportements du consommateur, vous déclenchez et configurez les études avec la plus grande pertinence possible. Dès lors que vous repérez un comportement intéressant pour vous - ou encore mieux une modification de comportement – vous pouvez solliciter les consommateurs concernés sur les motifs de celle-ci, en étant extrêmement fin et pointu dans votre interrogation. Vous ne faites pas que constater ; vous pouvez obtenir le pourquoi de tel ou tel comportement dans des conditions optimales de fluidité. Font naturellement partie de ces éléments de comportements les données de géolocalisation : un consommateur est passé à tel endroit, vous pouvez instantanément lui poser des questions sur les raisons de sa visite, ses perceptions,… Mais vous avez également la possibilité d’analyser dans le temps comment des attitudes, que vous avez appréhendées via une étude, se traduisent dans les comportements des consommateurs interrogés. Vous pouvez voir et analyser comment se fait le passage à l’acte, à quelle vitesse, et éventuellement avec quels éléments déclencheurs…

    Ce qui permet cela, c’est le fait de pouvoir maitriser un écosystème dynamique d’informations…

    Absolument. Mais il y a également des avantages importants dans la qualité de la relation qui s’établit avec les consommateurs faisant partie de la communauté. D’une part comme nous venons de l’évoquer, vous pouvez gagner en précision et en pertinence dans les questions que vous leur soumettrez. Mais vous avez également l’avantage de pouvoir les solliciter au moment, à l’endroit, et avec le support qui leur convient le mieux. Plutôt que d’imposer des modalités d’études, on peut ainsi intégrer ce que sont les meilleures options d’interaction vu des consommateurs. Le meilleur moment pour interroger quelqu'un n'est pas au moment ou il consomme ou quand il est en voiture - mais de retour chez lui ou dans les transports en commun - et ce moment optimal d'interaction, minimisant la gêne, maximisant la qualité de remémoration, est à déterminer pour chaque individu.

    En théorie, les outils conçus pour intégrer l’ensemble des données relatives aux consommateurs existent depuis longtemps. Mais en pratique, c’est loin d’être évident. En quoi Platform One change la donne ?

    Il existe en effet beaucoup d’applications plus ou moins anciennes, pour lesquelles le processus a consisté à rajouter des couches pour répondre aux besoins des utilisateurs. Mais, dans les faits, vous avez raison, cela ne fonctionne pas bien. C’est même parfois un cauchemar pour les utilisateurs. Notre pari a consisté à dire qu’il fallait repartir de zéro, et construire une plateforme logicielle qui intègre réellement l’ensemble des besoins.

    C’est cela qui a été source de complexité et demandé ces 3 ans de conception ?

    Oui. C’est le principe d’intégrer différents éléments, tout en se donnant la possibilité de monter très rapidement en échelle et en taille. Ce serait mentir que de dire qu’il s’agit, avec Platform One, de traiter de la big data. Le terme le plus juste serait plutôt celui de Medium Data. Mais il y a bien un élément de complexité particulier au fait de traiter une base de données vivante, dynamique. Cela nous a demandé un gros travail d’analyse.

    L’outil a vocation à répondre à des besoins « Etudes ». Mais compte tenu des caractéristiques que vous avez énoncées précédemment, est-ce qu’il ne permet pas d’aller au-delà de ce périmètre, et se substituer à des outils de CRM ?

    C’est possible en effet, puisque cet outil est une plateforme de gestion de la relation avec une communauté ou une base de clients. Nous l’avons conçu pour répondre prioritairement à des besoins d’études. Mais en réalité, nous ne faisons que nous inscrire dans le contexte d’une transformation du métier des études, qui repose de plus en plus sur la mise en place et l’animation de communautés de consommateurs. L’enjeu étant, à partir de cela, de générer un flux de données à des fins d’analyse ou d’action en effet, mais toujours avec les mêmes besoins de facilité, d’ergonomie, de maitrise et de pertinence.

    Cette plateforme n’est donc pas destinée qu’aux seuls instituts ?

    Platform One a été conçu, désigné pour répondre aux besoins des instituts désirant mettre les communautés d’études au cœur de leur savoir faire et de leurs propositions. Mais ne nous mentons pas, il y a un réel enjeu pour les instituts. S’ils ne s’approprient pas ces savoir faire et les outils qui vont avec, il est tout à fait possible que des concurrents indirects – ou même certains annonceurs – le fassent en se passant d’eux. Nous avons réellement cette conviction que les gagnants de demain, instituts ou entreprises, seront ceux qui sauront créer, orchestrer leurs propres flux de données, et les exploiter le plus intelligemment possible. Imaginez ce qu'on peut faire en reliant une carte de fidélité ou des systèmes de coupon avec des enquêtes...

    En l’occurrence, qui sont vos premiers clients ?

    Le tout premier est Verve, qui est un spécialiste des communautés et gère de très gros panels. Nous sommes également en contrat avec Behaviour & Attitude en Ireland. Des discussions sont naturellement en cours avec un certain nombre de gros instituts, y compris en France.

    Enfin, pouvez-vous nous dire quelques mots sur les acteurs avec lesquels vous vous êtes associés pour lancer Platform One ?

    Bien sûr. En tant qu’Askia, Patrick (NDLR : Patrick George Lassale, co-fondateur d’Askia) et moi nous sommes associés à Jon Gumbrell, qui est majoritaire, et Mike Hall. Tous deux sont souvent présentés comme des serial entrepreneurs de l’univers des études. Jon a notamment crée ID Factor et co-fondé Verve. Mike Hall est quant à lui un spécialiste de la communication et des marques, avec à son actif la création de Hall & Partners. Claire Bickerton, qui est responsable de la stratégie et du marketing, fait également partie de l’équipe des associés. Je précise d’ailleurs que Platform One, au delà d’être un produit, est aussi une société dont nous sommes donc partie prenante, dont les bureaux sont à Londres, les équipes de développement et de services étant eux basées à Colombo. 


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Jerôme Sopocko @ Patrick George Lassale

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Innovation / Interviews /
  22. Etudes marketing : Les 6 perspectives clés des entreprises pour 2015, résultats du Baromètre Annuel Market Research News / Callson

    24 avr. 2015

    Quelles sont les orientations budgétaires des entreprises en matière d'achats d'études de marché pour 2015 ? Quelles thématiques devraient-elles privilégier, quelles sont les techniques qu’elles devraient utiliser et tester ? Quels types de sociétés devraient avoir leur préférence sur cette année en cours pour quels types de prestation ? Et quelles sont enfin les lignes de force quant à leur politique de ressources humaines ?

    Ce sont les principaux thèmes abordés dans le cadre de la 4ème édition de ce baromètre, initié et réalisé par Market Research News / Callson (1), avec le soutien d'Esomar (2) et de Syntec Etudes (3), et avec la participation de Mix & Match.


    Voici les 6 enseignements de cette étude réalisée du 23 janvier au 3 mars 2015 auprès d'un échantillon de 301 décideurs études (Directeurs ou responsables marketing, directeur ou responsables des études de marché,…) (5) et dont les résultats ont été présentés dans le cadre du Printemps des Etudes.

    1. L’option dominante des entreprises est de stabiliser les budgets Etudes pour 2015

    Dans un contexte économique qui demeure difficile, près de la moitié des entreprises ont pris l’option de stabiliser leurs dépenses d’études sur 2015, 21% de les augmenter, et 29% de les diminuer.  Ce solde légèrement négatif traduit la persistance d’une certaine tension sur les budgets, qui va de pair avec la tentation pour un nombre croissant d’entreprises d’aller à nouveau dans le sens d’une plus grande internalisation des projets d’études. Cette pression à la baisse reste néanmoins relativement contenue, notre pronostic étant celui d’une fourchette d ‘évolution comprise entre 0 et -1%. Et les perspectives sont toujours aussi contrastées, avec d’un côté des entreprises qui jouent la carte de l’économie, là où d’autres prennent des parti-pris volontaristes avec des hausses très significatives de leurs budgets.

    2. L’accompagnement de l’innovation ressort clairement comme la priorité n°1 des services études pour cette année.

    Les thèmes à traiter par les équipes études des entreprises restent toujours aussi variés. Mais l’enjeu du bon accompagnement de l’innovation (et donc de la création de nouveaux produits ou services) apparaît clairement comme la grande priorité pour les entreprises cette année, une forte proportion d’entre elles ayant la perspective de renforcer leurs investissements études sur ce point. L’optimisation de la « customer experience » ressort également parmi les points de focalisation privilégiés, avec des indicateurs particulièrement favorables sur les thèmes de la Satisfaction Client et de la Qualité de Service. La connaissance des cibles (études de type Usages et Attitudes) apparaît enfin comme le troisième thème prioritaire, avec néanmoins des perspectives plus contrastées selon les entreprises.

    3. Les techniques d’études associées à internet ont toujours le vent en poupe, avec également une forte dynamique autour de l’usage du big data.

    Année après année, le on-line s’est clairement imposé dans le recueil de données quantitatives, plus de la moitié des entreprises utilisant désormais majoritairement (32%) ou même exclusivement (25%) cette modalité au détriment du téléphone. Ces proportions devraient encore légèrement croître en 2015. On voit également les signes d’une forte dynamique de test et/ou d’usage pour les techniques associées au web telles que le quali et les communautés on-line, ainsi que pour l’exploitation des verbatims recueillis sur la toile. L’usage du big data semble être en nette progression, ce type d’approche étant visiblement appréhendé par les entreprises comme une option intéressante pour rationaliser les dépenses d’études. Par ailleurs, 2015 devrait être une année de statu quo quant à l’équilibre des dépenses entre les études qualitatives et quantitatives.

    4. Le besoin persistant d’une immédiateté du sens pour action des études

    Entre les études de fond, qui nécessitent potentiellement un travail relativement long d’appropriation et de « digestion », et celles apportant un sens immédiat pour action, les perspectives des entreprises continuent à pencher très nettement en faveur des secondes. Cette tendance, qui est bien sûr fortement révélatrice des modes de fonctionnement des entreprises, n’empêche pas les décideurs études de vouloir privilégier un peu plus les études de type stratégique versus les éclairages plus tactiques. Et on note également des prédispositions un peu plus favorables des entreprises quant à des prestations intégrant une forte dimension conseil, versus des prestations plus « sèches » centrées sur le recueil des données.

    5. Une prime d’intérêt qui subsiste pour les spécialistes et les petites structures

    Même si la balance des préférences tend à être un peu moins déséquilibrée cette année, les orientations des acheteurs d’études restent en effet plus favorables aux spécialistes et aux petites structures plutôt qu’aux grandes sociétés et aux généralistes. Il faut également noter l’inclinaison des décideurs études à consulter un peu plus fortement de nouvelles sociétés, et donc potentiellement à remettre en compétition leurs prestataires habituels.

    6. Des effectifs stables pour les équipes études des entreprises, avec une forte priorité au renforcement des compétences dans le domaine du digital et des data analytics

    Les perspectives des entreprises pour ce qui est des effectifs des équipes études sont proches des orientations budgétaires (83% des répondants s’attendent à une stabilité des effectifs), avec des orientations qui vont plutôt dans le sens d’une plus grande seniorité.  La culture du digital et la maitrise des « data analytics » (et du data mining) ressortent clairement comme les deux compétences devant être prioritairement renforcées du point de vue des décideurs études, qui sont également enclins à favoriser les capacités de créativité et d’innovation de leurs équipes.

     

    Notes et compléments

    (1) Callson est partenaire de Market Research News et co-initiatrice de la création de ce baromètre. Cette société, dirigée par Laurent Poggi et Larbi Houari, est spécialisée dans les terrains d'études, avec une forte expérience pour l'investigation de cibles complexes (BtoC et BtoB) et la maitrise des complémentarités entre différents modes de recueil.

    (2) ESOMAR, qui soutient le lancement de ce baromètre, est la 1ère organisation mondiale dans le domaine des études de marché (coauteur avec l'ICC du code déontologique de la profession). Elle regroupe plus de 4900 professionnels des études de marché répartis dans une centaine de pays.

    (3) SYNTEC Etudes est le syndicat représentatif des professionnels des études en France. Il a pour objet la représentation, la promotion et la défense des intérêts collectifs des acteurs des études. Il regroupe plus de soixante entreprises, allant de très petites structures jusqu’aux plus grands opérateurs du marché, couvrant collectivement l’ensemble des prestations d’études marketing et de sondages d’opinion.

    (4) L'étude a été réalisée par téléphone auprès de 301 personnes responsables (pour tout ou partie) de la gestion des études marketing au sein de leur entreprise, avec la participation de sociétés présentes sur l'ensemble des secteurs d'activité : Adecco, Aéroports de Paris, April Assurances, Axa France, Banque Populaire, Bayard Presse, Bayer Cropscience France, Bel-groupe, Blanche Porte, Boiron Laboratoires, Bosch Electroménager, Butagaz, Caisse d’Epargne, Carglass, Carrefour, Cassegrain, Castorama, Chanel, Club Med, CNP Assurances, COFIDIS, Coty Prestige, Crédit Agricole, Crédit Mutuel, Damart, Danone Beverage Division, EDF GDF, EMI, Entremont, Essilor International, Etam, Fleury Michon, Fournier Mobalpa, France Télévision, GAN, Géant, GMF Vie, Groupama, Groupe Marie Claire, Groupe Volkswagen, Heineken, HSBC, IGN, Intermarché, L’Oréal, La Banque Postale,…

    Dans le cadre de l’étude, il a été tenu compte du poids de ces différents secteurs d’activité dans le domaine des études de marché (source Syntec Etudes Marketing et Opinion)


     POUR ACTION 

    Commenter 

    • Contacter les réalisateurs de l'étude : @ Thierry Semblat (MRnews) /  @ Laurent Poggi (Callson)

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Vie de la profession / Résultats d'études / Les 10 articles les + lus /
  23. De la théorie à la réalité de l’orientation client des entreprises – Interview de Daniel Ray et Guillaume Antonietti

    7 avr. 2015

    Et s’il y avait une sorte d’impasse à toujours faire plus d’efforts pour optimiser la satisfaction des clients ? Et si les clés d’une plus grande efficacité étaient ailleurs et en particulier dans la culture et la réalité de l’orientation client de l’entreprise, collaborateurs et managers bien compris.

    C’est l’hypothèse sur laquelle ont travaillé Guillaume Antonietti (fondateur de Côté Clients) et Daniel Ray (Professeur et chercheur à Grenoble Ecole de Management) au sein d’une nouvelle entité nommée Academics For Business, avec la mise au point d'une approche spécifiquement dédiée au diagnostic et à l’accompagnement des entreprises sur cet enjeu clé de la Customer Orientation

    MRNews – Thierry Semblat : Vous êtes l’un et l’autre des spécialistes de la satisfaction client. Mais l’approche sur laquelle vous avez travaillé ensemble ne porte pas sur la satisfaction des clients en tant que telle, mais plutôt sur la fameuse Customer Orientation. Dans votre vision, est-ce que cela correspond à un déplacement des enjeux au sein des entreprises ?

    Daniel Ray – Guillaume Antonietti : On peut parler en effet d’une forme de maturité des entreprises dans leur réflexion autour de la satisfaction client. L’idée que la satisfaction client constitue un enjeu majeur est largement admise, au moins en théorie, même s’il peut parfois y avoir des doutes sur le lien existant entre cette satisfaction et la performance économique des entreprises. La question qui se pose pour elles est donc beaucoup plus celle du comment. Comment obtenir de réel succès sur le front de la satisfaction client dans une économie de moyens pertinente ? Comment passer des mots aux actes ? Ou bien encore comment sortir de cette impasse dans laquelle beaucoup d’entreprises se trouvent, avec ce sentiment de consacrer beaucoup de temps et d’énergie pour un résultat au final un peu décevant ?

    En quoi la notion d’orientation client apporte-t-elle quelque chose de vraiment neuf sur ces questions ?

    L’idée revient à dire qu’au moins dans une certaine mesure les entreprises ont intérêt à sortir d’une logique qui est celle de l’effort. L’analogie avec les individus nous semble faire sens. Si cela vous coûte de faire quelque chose, si vous avez le sentiment de devoir faire des efforts importants, il y a toutes les chances pour que votre efficacité ne soit qu’assez médiocre. En revanche, si vous intégrez ce qui doit être fait comme un de vos réflexes, si cela devient quelque chose que vous faites sans même y penser, alors vous avez toutes les chances de bien mieux y parvenir. L’idée de la Customer Orientation s’inscrit dans cette logique. Nous pensons que cela correspond à un réel changement de l’angle de vue.

    Comment définiriez-vous en quelques mots cette notion d’orientation ou de culture client appliquée à une entreprise ?

    Une revue exhaustive de la littérature scientifique sur ce thème nous a permis d’identifier ce qui apparaît comme les trois composantes principales de la culture client. La première composante relève de l’impulsion stratégique de l’entreprise, que l’on peut appréhender au travers de quelques questions clés : qu’en est-il de l’orientation client des managers de l’entreprise, étant entendu que l’exemplarité du top et du middle management est décisive ? Des KPI clients ont-ils bien été mis en place ? Et quelles sont les pratiques en termes d’écoute et de connaissance des clients ? Le deuxième volet porte lui plus spécifiquement sur la qualité de la connexion de l’entreprise aux clients. L’idée est ici d’observer ce qu’il en est dans l’entreprise quant au volume d’information client émis et aux pratiques d’analyse et de partage de cette information. Le dernier aspect relatif à ce composant est la capacité de réaction de l’entreprise vis à vis des retours clients, et notamment des recommandations.

    En d’autres termes, si l’entreprise ne fait que collecter et analyser l’information, elle n’est pas très avancée…

    Absolument. Cet aspect, avec ce qu’il implique quand à l’état d’esprit des collaborateurs, se retrouve complètement dans le troisième grand composant de la Culture Client, qui tourne autour de cette notion d’autonomie et de responsabilisation des équipes. Les collaborateurs se perçoivent-ils eux-mêmes comme véritablement autonomes ? Les équipes sont-elles réactives face aux réclamations des clients ? Font-elles preuve de pro-activité ? Et dernier point extrêmement important, les ventes elles-mêmes sont elles orientées client ou pas. En d’autres termes, l’entreprise vise-t-elle bien le fameux « win-win » dans sa relation avec ses clients ?

    Vous avez donc construit un outil d’évaluation de la culture client qui, je l’imagine, repose sur les composantes et les questions que vous venez d’évoquer ?

    Tout à fait. Sur la base de ces thématiques, nous avons élaboré un système de mesure qui intègre 80 questions et permet de générer un score global que nous avons intitulé le COS® Company. Ces questions sont posées aux collaborateurs de l’entreprise, sur un échantillon ou pourquoi pas auprès de la totalité d’entre eux, par mail ou via une interrogation online.

    Mais les collaborateurs eux-mêmes font-il l’objet d’une évaluation ?

    Absolument. C’est l’objet du second volet de notre diagnostic, qui permet de savoir si les collaborateurs eux même sont personnellement orientés client, in abstracto de leur entreprise. Avec celui-ci, nous faisons une mesure de cette notion de réflexe que nous avons évoquée, en nous appuyant notamment sur les temps de réponse des collaborateurs. Ce deuxième volet permet de générer un score global, le COS® Employee. Et le croisement de ces deux macro indicateurs (COS® Company et COS® Employee) donne ainsi une vision très claire de la culture client de l’entreprise, dans l’absolu ou dans une logique de benchmark puisque nous avons déjà eu l’occasion d’effectuer ces mesures auprès de 6000 répondants dans 45 entreprises*, sur des tailles et des secteurs très variés.

    Qu’en est-il du dégré d’opérationnalité de ce dispositif de diagnostic ?

    Nous pensons réellement avoir atteint ce qui peut se faire de mieux en la matière, et les retours de nos premiers clients nous confortent dans ce sentiment. Cela tient à la fois au nombre d’aspects traités, mais aussi au fait que cette évaluation a vocation à être mise en œuvre auprès du plus grand nombre possible de collaborateurs. La combinaison des deux permet d’obtenir une précision que nos clients qualifient eux-mêmes de chirurgical. C’est vraiment le cas : si le patron d’une agence donnée n’est pas exemplaire, ou bien si l’information client n’est pas partagée dans tel ou tel département de l’entreprise, cela ressort de façon extrêmement claire.

    Cette approche est donc la première production d’Academics for Business. Quelle est la vocation de cette entité ?

    Customer Orientation Score est très emblématique de ce que nous cherchons à faire avec Academics for Business. Ce qui mérite d’être souligné, c’est  qu’il nous a fallu pas moins de trois années de travail avec un groupe de chercheurs pour aboutir à une validation scientifique de l’outil (http://www.customer-orientation-score.com). L’idée est donc de mettre à disposition des entreprises un certain nombre de démarches qui soient les plus utiles pour elles, tout en s’appuyant sur une rigueur scientifique absolue. C’est le cas avec cet outil de diagnostic, sachant que nous pouvons tout à fait, selon les cas et les demandes, être aussi amenés a posteriori à accompagner les entreprises dans la définition de plans d’actions, via des programmes de workshop internes.

    * Parmi les 45 premières entreprises à avoir été évaluées avec cet outil : Orange, Edf, Décathlon, Kiabi, Bayer, Gémo, Biomérieux, Philips, Eurodisney, Cegid, Cofidis, Monabanq, Cultura...


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Guillaume Antonietti   @ Daniel Ray

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie / Satisfaction / Fidélité /
  24. « Il est temps que les études de marché sortent de leur préhistoire » - Interview exclusive de Vladimir Boulez, directeur fondateur de Big Datator SA

    1 avr. 2015

    Dans le paysage pourtant habituellement feutré des études de marché, il semblerait qu’un tournant décisif soit en train d’être pris avec de nouveaux entrants, bien décidés à faire bouger les lignes via des approches radicalement innovantes.

    C’est à l’évidence le cas de Big Datator SA, qui entend même dynamiter le marché des études en mode accéléré. Son directeur – fondateur Vladimir Boulez a accepté de répondre en exclusivité aux questions de MRNews.

    Market Research News : En l’espace de quelques semaines, vous avez ouvert des bureaux à New York, Londres, Berlin et enfin Paris, alors que le contexte semble toujours très difficile pour les études de marché. Quel est le secret de votre dynamisme ?

    Vladimir Boulez : Nous avons la chance de pouvoir compter sur des actionnaires riches et déterminés, et avons la conviction de détenir des outils et des techniques qui vont renvoyer à la préhistoire tout ce qui a été fait jusqu’à maintenant dans le domaine des études de marché. Mais peut-être cela a aussi quelque chose à voir avec mes origines. Ce n’est un secret pour personne, je suis originaire des Carpates. Et je dois avouer que rien ne me galvanise tant que la vue du sang de mes concurrents.

    Il se dit que vos actionnaires sont Qataris. Est-ce exact ?

    Vous imaginez que des actionnaires français puissent encore investir dans le domaine des études ? Bien sûr, il faut aller chercher l’argent là où il est. En l’occurrence, nos amis du Qatar ont parfaitement intégré le fait que l’âge d’or du pétrole allait bientôt être révolu. Ils ont bien compris que le nouveau pétrole, c’est la data. Ceci étant, à leur échelle, c’est du micro-investissement. Les frais sont assez limités, il faut un peu d’argent pour les ordinateurs, et nous n’embauchons que très peu de collaborateurs, en nous concentrant sur des profils de pifométreurs dont les salaires sont très raisonnables.

    Qu’est ce qu’un pifométreur ?

    C’est un métier que nous avons créé à partir de quelques constats sur la façon dont nos clients perçoivent les résultats d’études. La première évidence, c’est que la fiabilité n’a aucune importance pour eux. C’est logique puisqu’il leur est impossible de savoir si le résultat est parfaitement exact ou pas. Par ailleurs, si le résultat est trop éloigné de ce à quoi ils s’attendent, ils sont incrédules, et donc peu satisfaits. Mais si le résultat est trop proche, ils sont également déçus, ils ont l’impression d’avoir dépensé de l’argent pour rien. Vous voyez bien qu’il y a un paradoxe : l’exactitude coûte cher à produire, et elle n’est pas valorisable aux yeux des clients. Ils n’ont plus les budgets pour cela. Nous avons donc pris une option radicale mais manifestement très efficace, qui consiste à s’appuyer sur des gens capables d’intuiter des ordres de grandeur cohérents en regard des interrogations de nos clients.

    Mais vous réalisez quand-même des études ?

    Oui, bien sûr. Enfin, entendons nous, nous nous concentrons sur l’analyse de la data. Nous ne posons pas de questions aux consommateurs. De notre point de vue, c’est une technique parfaitement obsolète. Cela revient à dépenser beaucoup d’argent pour obtenir en retour des réponses parfaitement mensongères. Anton Glycerinesky (cf notre interview) avait ouvert une voie extrêmement prometteuse avec ses appareils Nitromark, mais cela s’est mal terminé pour lui. Suite à des réglages défecteux, des dizaines de consommateurs sont morts dans des souffrances atroces, et le pauvre Anton a été obligé de cesser son activité. Mais nous lui avons racheté ses brevets et ses capteurs qui permettent de capter les problématiques des clients sans même qu’ils aient besoin de les formaliser par écrit. C’est nous qui les rédigeons automatiquement après avoir branché un capteur sur eux pendant quelques minutes. C’est un gain de temps et d’efficacité considérable.

    Et une fois que cette problématique est formalisée, que faites-vous ? Sur quels échantillons de données travaillez-vous ?

    Pourquoi diable tenez-vous à travailler sur des échantillons ? Il suffit de se connecter sur internet, en intégrant le résumé de la problématique et les inputs des pifométreurs, et tout fonctionne parfaitement. En 10 minutes chrono, vous avez les résultats en 3 versions : en une, en 10 et en 300 pages, l’idée pour le gros rapport étant de se rapprocher du seuil des 500 grammes, puisque nous nous sommes aperçus que cela était important pour nos clients d’avoir un document suffisamment lourd, c’est pour eux un gage de crédibilité.

    Vous appuyez-vous sur une filière particulière pour recruter vos analystes ?

    Nous avons essayé de travailler avec quelques experts français, mais la discussion a tourné court. Ce sont des gens qui coupent les cheveux en 50, qui sont obsédés par des questions techniques tellement complexes que même la NASA ne parviendrait pas à les résoudre. Et puis ils évoquent sans arrêt des questions de déontologie, de sécurité de l’information, que sais-je encore. On voit bien qu’ils sont complètement déconnectés de toute vision du business. Non, il n’y a vraiment rien à faire avec eux. Nous en sommes arrivés à la conclusion qu’il nous fallait nous passer d’analystes. Nous sommes donc allés chercher des cerveaux capables d’inventer les logiciels qui allaient bien ; et bien sûr nous les avons trouvés en Chine et en Inde. On y trouve des vrais génies pour le salaire d’un stagiaire, un vrai bonheur.

    Quels sont les premiers retours d’expérience ? Quelle est la perception de vos clients ?

    C’est vrai que leur premier réflexe est celui de la méfiance. On peut les comprendre, ils sont régulièrement déçus par les prestations des instituts d’études. Mais avec le Big Data et nos moyens d’analyse, nous avons un avantage énorme. Quand nous leurs montrons ce que nous savons d’eux, y compris sur leur vie intime si vous voyez ce que je veux dire, ils commencent à nous prendre vraiment très au sérieux. La discussion business est tout de suite plus facile.

    Comment voyez-vous les choses ? Diriez-vous que les analyses que vous proposez sont complémentaires aux approches classiques, ou bien s’agit-il d’une réelle alternative ?

    Je crois que vous ne m’avez pas très bien compris. Il est évident que toutes ces techniques d’études, avec des questionnaires ou des réunions de groupe, tout cela n’a plus aucun sens. Chaque étude de ce type coûte un bras et n’apporte quasiment rien. Nous sommes donc bien dans une alternative radicale, et je ne donne pas cher de la peau du marché traditionnel des études. Je pense que nous ne pourrons pas faire grand chose des quantitativistes, qui sont en général complètement dépourvus d’imagination. Mais sans doute pourrons-nous offrir de beaux jobs de pifométreurs à une partie des qualitativistes, moyennant une ré-éducation assez drastique, pour ceux en tout cas qui voudront bien cesser de se comporter comme des divas. 


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Vladimir Boulez

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News


     COMMENTAIRE(S) 

    Magali : C'est un sacré poisson d'Avril. Bravo !

    Philippe : Excellent ! J'adore le concept des Pifométreurs !! Et sur le fond, je trouve que le paradoxe autour de la valeur de l'exactitude est un vrai enjeu.

    Interviews / Vie de la profession / Les 10 articles les + lus /
  25. Une marque peut-elle réussir sans ennemi ? Interview de Georges Lewi, auteur de La fabrique de l'ennemi

    23 mars 2015

    Il ne viendrait à l’esprit de personne aujourd’hui de contester l’importance cardinale pour les marques de savoir « raconter des histoires » qui accrochent l’esprit du public, ou de réussir leur storytelling pour reprendre cette expression lancée en France par Christian Salmon.

    Mais encore ? Quels sont plus concrètement les ingrédients clés pour aboutir à un storytelling réellement efficace ? Georges Lewi revient avec MRNews sur les éléments de réponse qu’il livre via son dernier ouvrage – La fabrique de l’ennemi - avec son double regard d’expert des marques et de spécialiste des mythologies contemporaines.

    MRNews : La puissance du storytelling est aujourd’hui une donnée largement admise. La question qui se pose donc est celle du comment : quelles sont les recettes permettant d’aboutir à un storytelling réellement efficace. Ce à quoi vous répondez en substance que raconter une histoire ne suffit pas. Encore faut-il que celle-ci soit construite en respectant un certain nombre de règles, à la fois peu nombreuses et extrêmement précises. Mais encore ?

    Georges Lewi : La multiplication des « histoires » racontées nécessite désormais - précisément pour « sortir » du lot - de construire un schéma narratif sans faille : un ennemi, une « reason why » concrète, visible, repérable au service de la lutte contre cet ennemi, une cible clairement définie et une promesse en tension. Trop de plateforme de marques sont « molles » et développent les mêmes « valeurs » auxquelles personne ne croit plus. Un storytelling est une histoire faite pour convaincre, pas pour occuper l’espace publicitaire.

    Parmi les ingrédients clés d’une histoire réussie, figure cette notion d’opposition, qui renvoie à celle des « mythèmes ». Qu’est ce qu’un mythème ?

    Un mythème (mot inventé par Claude Lévi-Strauss) est une opposition binaire fondamentale, de base. On peut faire un parallèle avec la chimie... Le mythème est l’atome. Le mythe (la narration complète) est la molécule. A partir de là , on retrouve les oppositions  fondamentales : mort/vivant, masculin/féminin, cru/cuit, dominant/dominé, artiste/artisan, Spécialiste/généraliste…

    La marque se nommant ELLE ou AUFEMININ.COM, VENTE-PRIVEE  prend position et fait de son storytelling un « combat ». Sinon elle sera amenée à décevoir et à …disparaître.

    Une marque doit-elle nécessairement avoir un ennemi pour réussir ?

    Non mais elle doit le définir. Ennemi réel ou potentiel, il faut pour ses consommateurs (mais aussi pour ses collaborateurs), qu’elle mène un combat, une « guerre de position ». Son ennemi est généralement un fléau perçu par ses consommateurs potentiels, un « caillou dans la chaussure » auquel ils ne trouvent pas de parade satisfaisante.  Quelquefois, certaines marques ont la chance d’avoir un concurrent qui est tellement référencé comme l’archétype d’une cause, qu’elles n’ont aucune difficulté à définir tout à la fois leur ennemi (le fléau contre lequel lutter) et leur concurrent. L’Oréal représente l’idéal scientifique de la beauté ; il est aisé à Yves Rocher d’en être l’opposé, l’idéal nature de la beauté. Coca-Cola est l’idéal de la boisson qui surfe sur le « bonheur » ; Red Bull va pouvoir exprimer le monde des bad boys, des casse-cou, d’un monde extrême qui rejette les « petits bonheurs du quotidien ».

    Une marque, à l’instar d’une personne, ne peut pas avoir une identité propre si elle ne s’oppose pas à quelque chose ou à quelqu’un. Comme il ne peut y avoir d’histoire durablement mémorisée par le public sans opposant. Tout cela repose sur le même grand principe ?

    Le grand psychologue Jean Piaget disait en parlant des stades d’évolution du petit enfant « le moi se pose en s’opposant ». L’être humain a besoin de se trouver « face » aux autres, face « à son destin », face à des épreuves pour se définir et sans doute pour se construire. Une marque étant pour les consommateurs une représentation de ces enjeux, l’individu s’en accapare pour se « positionner » lui-même, pour se situer dans son contexte « tribal » et « sociétal ». Il a besoin de marques qui exprime cette guerre de position.

    Vous dites l’ennemi plutôt que l’adversaire ou l’opposant… Pourquoi ?

    Par ce qu’avec des adversaires, on a les mêmes règles du jeu, on peut s’arranger, on peut « collaborer ». Pas avec un ennemi. Or l’ambition d’une marque, est de pouvoir dire à ses consommateurs : « sur ce marché, il n’y a que Moi et les autres ». Tous les autres se retrouvent, en face, en position d’ennemi. Il n’y a pas de compromis possible. Si une marque fait des compromis, elle ira vers des compromissions et finira par « trahir » sa cause, celle de ses consommateurs les plus fidèles. Elle réussira peut-être en marketing mais perdra son statut de marque. Par ce qu’Hermès n’a pas transigé face à Vuitton la marque est sans doute une des  plus fortes du monde, même si Vuitton l’emporte en parts de marché.

    Le terme que vous utilisez, celui de « fabrique », sous-entend que l’ennemi ne se définit pas « naturellement ». Vous dites donc en substance que la marque doit utiliser la latitude qui est la sienne dans la définition de son ennemi ?

    Il est rare (cf. Patagonia et quelques autres comme Apple ) que le créateur d’une marque ait eu, dès l’origine, l’exigence de se « mettre tout le monde à dos », de refuser les règles du commerce facile. Mais avec la réussite, les plus visionnaires ré-écrivent l’histoire, re-fabriquent  un récit fondateur et tentent de s’y conformer dans les produits, les services, les discours ultérieurs.

    Peut-on citer quelques exemples de marques ayant été particulièrement pertinentes dans cet art de désigner son ennemi ?

    Apple bien-sûr et la médiocrité,  Ikéa et le conformisme,  Bic et le snobisme…

    Qui est l’ennemi de Coca Cola ? de Nespresso ? d’Orange ?

    Coca-Cola, c’est la fabrique du bonheur ou l’ennemi du malheur. Nespresso, la perfection à domicile ou l’ennemi de la médiocrité (dans son domaine). Orange à l’origine, avec « futur is bright » est l’ennemi de l'idée de se contenter de ce que l’on a.

    A contrario, quels sont les exemples les plus flagrants de marques qui sont selon vous passées à côté de cette règle ?

    Vous m’autoriserez d’éviter de me fabriquer « trop d’ennemis »…

    Les règles que vous énoncez ne s’appliquent pas qu’aux marques commerciales, mais aussi aux personnalités, aux territoires. Parmi ces derniers, vous vous êtes pas mal penché sur la marque Europe, en pointant du doigt son manquement à définir (ou plutôt à redéfinir) son ennemi. Quel ennemi l’Europe devrait-elle se fabriquer selon vous ?

    L’Europe a vaincu la guerre de 1950 à 2015. C’était un ennemi de taille. Mais dorénavant la guerre ne fait plus partie des préoccupations ressentis et la marque Europe peine à se trouver un nouveau face à face digne de sa taille et de son Histoire. Elle devrait réfléchir vite à « trouver son ennemi » sinon les Européens risquent de retrouver leurs vieux démons et se choisir des ennemis bien physiques, de l’autre côté de la méditerranée, du fleuve Oural ou du Chanel…Il ne manque pas d’ennemi possible : la pauvreté, l’inégalité, la méconnaissance entre Européens…

    Nota :
    Georges Lewi est professeur (Celsa) et l’auteur d’une dizaine d’ouvrages consacrées à la marque dont Branding Management (récemment ré-édité) et Mythologie des Marques. Il est l'auteur du blog Mythologicorp, et le fondateur de la société du même nom.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Georges Lewi

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Livres, publications / Marque /
  26. Le big data : menace mortelle ou opportunité pour les équipes études en entreprise ? Interview de Simon Pioche, nouveau DGA de Socio

    2 mars 2015

    L’engouement pour le big data risque-t-il de retomber ? Comment évoluent les besoins et les demandes des entreprises autour de cet enjeu ? Quel impact l’hyper disponibilité des données aura-t-elle pour les équipes études au sein des entreprises ? Peut-elle mener à la disparition de cette fonction ?

    Ce sont les nombreuses questions que nous avons posées à Simon Pioche, dont l’arrivée au sein du groupe NP6 en tant que DGA de Socio peut apparaître comme un signe de plus de l’affaissement des frontières entre l’univers de la data et celui des études dans leurs contours habituels.

    MRNews : Vous venez d’intégrer le groupe NP6 en prenant la fonction de DGA de Socio aux cotés de Bruno Colin. Votre parcours antérieur vous a mené chez Millward Brown, puis chez GN Research dont vous étiez le CEO. En d’autres termes, vous êtes un homme issu de l’univers des études au sens classique du terme, qui arrive dans le monde de l’analyse des données. Faut-il y voir un signe emblématique des évolutions en cours dans l’univers des études ?

    Simon Pioche : Oui, sans aucun doute. Le fait est qu’en tant que CEO de GN Research, j’avais déjà été amené à effectuer une sorte de bifurcation par rapport à l’univers traditionnel des études marketing. Même si l’activité principale de la société continuait à porter sur ces études, il était évident que ce marché là était en décroissance. A l’inverse, on faisait le constat d’une demande de plus en plus forte pour le traitement et l’analyse des données, précisément parce que les études classiques ne répondaient qu’imparfaitement aux besoins des entreprises, moins orientés vers la réflexion et la recherche d’insights que sur l’opérationnalité. C’était en tout cas flagrant pour les domaines que je connais le mieux, celui de l’expérience client et des médias. En échangeant avec Bruno Colin, il était évident que nos visions se recoupaient, avec cet enjeu clé de savoir comment traiter la data, en faire quelque chose qui fasse sens par rapport aux besoins du marché.

    Qu’est ce que ce que votre arrivée signifie dans les ambitions de Socio ?

    L’ambition de Socio est tout simplement d’être un expert « multi-data ». Nous souhaitons pouvoir apporter notre expertise et nos conseils dans l’utilisation du plus grand nombre possible de données, et ce y compris sur les données relatives à l’expérience client.

    Pour être plus précis sur cette notion de « multi-data », peut-on évoquer les différentes natures de données que cela recouvre ?

    Bien sûr. La première nature de données correspond à ce qu’apportent les études classiques, celles au travers desquelles, par interrogation, on obtient plus ou moins directement les informations dont on a besoin. Il n’est bien sûr pas question de se priver de cette source-là. Par ailleurs, il existe toutes les données comportementales. Le fait que tel client est possesseur de tel produit ou utilisateur de tel service, les quantités achetées, les cycles d’achat... Ou bien encore le fait que tel consommateur ait appelé le service client, ou se soit connecté sur le site de l’entreprise. Ce sont toutes les données transactionnelles, liées aux interactions entre le client et l’entreprise. Ces données sont factuelles. Elles ne disent rien quant aux motivations ou à la tonalité de la relation. Il y a ensuite de la data qualitative, principalement sous forme de verbatims recueillis sur les forums ou les réseaux sociaux. Puis les data internes à l’entreprise, tout ce que l’on peut considérer comme étant la mémoire interne des process de l’entreprise (qui a fait quoi, quand, etcétéra.). Il y a bien sur toutes les données de surf sur internet. Et puis enfin des données très larges, qui correspondent à ce que certains appellent l’Open data. Ce sont des données génériques, notamment de type économique, géomarketing, ou même météorologique. L’idée est bien que nous devenions progressivement experts non pas de tous les secteurs d’activité mais de toutes ces natures de données, fortement hétérogènes ;

    En 2014, il a beaucoup été question de Big Data. C’est sans doute un des termes  qui a le plus été présent dans la bouche des acteurs des études…

    Il est pratique d’utiliser ce terme-là, mais j’avoue ne pas en être très « fan ». Et je crois en réalité que l’on est rentré dans une phase où cette notion de big data est en train « d’éclater » entre différentes problématiques.

    Comment définiriez-vous celles-ci ?

    Le premier aspect est celui de la gestion de la data, le fait de construire des DMP, des datamart. Comment on collecte des données, comment on s’assure de leur fiabilité, comment on les enrichit, en faisant notamment collaborer des bases de données qui à un instant T, n’ont pas de clés communes. Une fois que cette architecture sera en place, les utiisateurs pourront aller chercher les données dont ils ont besoin, et qui parfois ne seront pas du tout de l’ordre du big. Au départ, on a bien affaire à du « big », mais dans les usages, la quantité de données sera directement conditionnée par les objectifs. Il y a aussi un point de distinction essentiel entre les besoins qui seront associés à du « temps réel », que l’on doit distinguer de ceux où l’on peut s’intéresser à quelque chose de plus « froid ».

    Quel est votre pronostic pour 2015 ? Faut-il s’attendre à ce que cet enjeu du big data soit toujours aussi présent, ou bien au contraire à ce que le soufflet retombe un peu ?

    Sur le fond, je ne crois pas une seconde que cet enjeu va perdre de son importance. Bien au contraire. Mais il est vraisemblable que l’on retrouve les étapes classiques qui accompagnent l’arrivée de toute innovation importante. Dans un premier temps, tout le monde trouve cela extraordinaire. Puis vient une seconde phase où les gens regardent les choses un tout petit peu plus concrètement, et en découvrent les limites. C’est le moment où ils disent « c’est nul, ça ne marche pas ! ». Et puis arrive la 3ème phase, où l’on découvre vraiment ce qui peut être mis en oeuvre, en faisant la part des choses entre la réalité et les fantasmes. Aujourd’hui, nous sommes encore dans la 1ère phase ; il faut donc s’attendre à un probable phénomène de déception dans les mois à venir.

    Voyez-vous des évolutions significatives à la fois dans la nature des demandes qui sont adressées à Socio, et éventuellement dans la nature de vos clients ?

    Nous voyons en effet des évolutions très significatives. Si l’on revient quelques mois en arrière, les besoins dominants étaient de l’ordre de la pédagogie. Les gens dans les entreprises avaient d’abord et avant tout besoin de comprendre ce qu’était le phénomène de la big data. Aujourd’hui, ce sont les chantiers de type POC (Proof of concept) qui font florès. A notre sens, c’est une excellente façon d’aborder le problème. On essaie concrètement de voir ce que l’on peut faire, à partir échantillon de données. Ou bien on procède à un assessment. En fonction d’un objectif donné, on examine ce qu’il est possible de faire avec les données disponibles, et sous quelles conditions.

    En d’autres termes, on est passé du stade de la pédagogie à l’étude de faisabilité.

    Cela résume bien en effet la tendance dominante. 100% des projets n’aboutiront pas, mais au moins on avance, on voit ce qu’il est possible de faire - ou de ne pas faire – et à quel coût. Et on se cale ainsi des objectifs réalistes par rapport aux données disponibles.

    Il semblerait qu’au moins dans un certain nombre d’entreprises (et pas des plus petites), la fonction Etudes soit un peu chahutée, avec des cures d’amaigrissement et parfois même des disparitions. Est-ce que cela rejoint vos propres observations ?

    Oui, cela semble assez évident. Le phénomène est plus ou moins flagrant selon les secteurs d’activité, les plus concernés étant ceux des télécoms ou de la banque. Comme par hasard, ce sont des secteurs dont l’activité au quotidien génère beaucoup de data, avec de très nombreuses « traces » quant à l’expérience des clients.

    En clair, pensez-vous que l’hyper-disponibilité croissante des datas constitue une menace mortelle pour les équipes études ?

    Il me semble évident que oui. Soyons clairs, dans beaucoup d’entreprises, les équipes études se sont habituées à une sorte de situation de monopole dans la connaissance des clients. Et elles ont adopté un certain nombre de réflexes quant aux modes de recueil à utiliser, ainsi qu’aux conditions à mettre en œuvre. Elles se retrouvent aujourd’hui dépassées par les demandes qui émanent des directions générales, qui ont pris conscience de l’intérêt qu’il pouvait y avoir à utiliser ces datas qui sont le plus souvent disponibles gratuitement, et qui pensent qu’il y a matière à la fois à faire des économies et à disposer d’éléments très opérationnels pour la gestion de l’entreprise. Si les équipes études se crispent, refusent d’utiliser ces données ou si plus largement elles donnent le sentiment de ne pas être capable de les utiliser, la sanction sera brutale. Les directions générales confieront l’analyse de ces données à d’autres équipes. On le voit déjà dans un certain nombre d’entreprises, où ce sont des équipes opérationnelles proches des problématiques de CRM qui s’en emparent. Ou bien cela sera confié aux fameux data-scientist. Mais je crois néanmoins que tout n’est pas joué d’avance. Ce phénomène peut aussi être une opportunité pour les gens d’études.

    En quoi est-ce opportunité pour eux ? Comment les équipes études doivent-elles exploiter celle-ci ?

    Je crois que les personnes qui baignent dans la culture des études ont un avantage précieux. C’est dans leur ADN même : ils savent factoriser l’information, résumer un très grand nombre de données autour de quelques grands facteurs pertinents. Ils savent simplifier l’information, ce qui est quand même une compétence précieuse dans un contexte de trop plein de données. Mais pour cela, elles doivent en passer par une sorte de révolution mentale. Elles doivent arrêter de se pincer le nez lorsqu’il est question d’utiliser ces données non structurées à priori. Et accepter de mettre leur nez dedans. Philosophiquement, cela signifie qu’il faut lâcher – avec discernement bien sûr – un certain nombre de notions qui renvoient parfois à des combats d’arrière-garde. On s’arc-boute souvent sur la notion de représentativité, mais celle-ci n’a rien d’absolu : la question est de savoir de quoi l’on veut être représentatif. Je crois qu’il n’y a pas d’autres options pour ces équipes et plus largement pour nous qui sommes issus de cette culture. Si nous ne voulons pas disparaitre, il faut absolument que nous nous appropriions la maitrise de l’analyse de ces données, avec toutes les remises en cause que cela suppose.

    Pour terminer, voyez-vous des entreprises ou des secteurs qui sont en avance de phase dans cette capacité – via les équipes études - à intégrer ces nouvelles sources de données dans la connaissance des clients ?

    Oui. Je pense à des acteurs du domaine de l’automobile, où les équipes études ont vraiment pris la mesure de cette opportunité. On voit également des initiatives qui nous semblent très prometteuses dans l’univers de l’assurance. Mais je suis persuadé que cela peut s’étendre à plein d’autres secteurs d’activité.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Simon Pioche

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  27. WSA rejoint le groupe Stratégir, nouvel acteur du top 10 des instituts français – Interview de Luc Milbergue et Pascal Bluteau

    26 févr. 2015

    Avec l’intégration du spécialiste des études qualitatives qu’est WSA au sein du groupe Stratégir, spécialisé quant à lui dans les univers de la Grande Consommation, du Retail et du luxe, ce dernier rejoint désormais le top 10 des instituts français.

    Quelles sont les raisons qui ont motivé cette décision ? Sur la base de quelle vision du marché et avec quelles valeurs communes ? Ce sont les questions auxquelles répondent Luc Milbergue, le président du groupe Stratégir, ainsi que Pascal Bluteau, directeur général de cette toute nouvelle structure Stratégir-WSA  

    MRnews : Vous avez annoncé il y a quelques jours l’intégration de WSA au sein du groupe Stratégir (avec donc la création d’une nouvelle société Stratégir-WSA, filiale de Stratégir ). Il s’agit bien sûr d’une nouvelle importante pour le marché. Qu’est-ce qui a motivé cette décision ?

    Luc Milbergue : Le mot clé est vraiment la complémentarité. Grâce à ce rapprochement avec WSA, Stratégir renforce son expertise dans les études qualitatives et marque également son ambition de développer son activité sur l’univers des services. Je pense en particulier aux domaines de la banque et de l’assurance, ainsi qu‘aux télécoms, nos secteurs de prédilection étant aujourd’hui la Grande Consommation, l’OTC, le Luxe et le Retail. Nous pensons par ailleurs que dans un marché en transformation, nous avons à la fois les compétences métiers  et la dimension internationale pour répondre à une attente importante de nos clients : celle de pouvoir compter sur des instituts indépendants de taille moyenne et pouvant les accompagner de manière globale. Consolider nos expertises fait donc complètement sens.

    Pascal Bluteau : Nous partageons une même vision du marché : les problématiques marketing se complexifient, et exigent une maîtrise de toutes les techniques d’études, qu’elles soient quali, quanti, sémio, ethno, en face à face ou online… Nous ne devons plus être centrés outils ou techniques, mais solutions et business. En ce sens la rupture des traditionnelles frontières entre quali et quanti s’impose. En ce qui concerne WSA, nous souhaitions nous adosser à une société à l’activité complémentaire et de taille plus importante. A la fois pour poursuivre notre développement dans le respect de notre identité et de nos  valeurs, mais aussi pour étendre notre offre internationale, notamment aux US, en Asie et en Amérique du Sud.

    L’addition mathématique des CA des 2 structures vous place à quel niveau et à quel rang dans le secteur des études ?

    Luc Milbergue : Sur la base de nos exercices 2014, le groupe Stratégir avec WSA représente un chiffre d’affaires de 18 millions d’euros, ce qui nous situe au 10ème rang en terme de chiffres d’affaires sur le marché national des études. 

    La concentration du marché vous parait-elle un mouvement inéluctable ?

    Pascal Bluteau :   Concentration rime souvent avec fusion des équipes, rationalisation, etc. Ce n’est ni la conception de Stratégir, ni celle de WSA. L’enjeu est de grandir sans s’alourdir, de préserver notre agilité et notre réactivité.

    Luc Milbergue : Nous sommes clairement dans une logique de synergie et de partenariat : nous voulons bâtir autour de marques fortes et pérennes comme Stratégir et WSA. Celles-ci se doivent de préserver leur identité, leurs savoir-faire spécifiques, mais en les combinant, en les fertilisant, pour être plus opérationnels et plus pertinents. Bref, nous voulons prendre la dimension positive de la concentration, le renforcement des compétences, et laisser de côté les composantes négatives qui sont souvent associées à ce terme.

    La spécialisation quali ou quanti a historiquement été un des axes les plus importants dans la structuration du marché des études. Faut-il s’attendre à ce que ce soit de moins en moins vrai ?

    Pascal Bluteau :   Je pense en effet que le marché se redéfinit autour de nouveaux critères. Les services études dans les entreprises s’amenuisent ou redéfinissent leurs missions. Les nouveaux interlocuteurs marketing chez l’annonceur sont en recherche de solutions études et conseil globales, qui intègrent parfois du quali,  parfois  du quanti, et parfois du quali / quanti .

    Luc Milbergue : Chez nos clients, sur un projet d’innovation ou de repositionnement, les mêmes équipes ont besoin à la fois de recherche créative, de recherche d’insights, d’ethnos exploratoires, de cartes stratégiques, de tests pour valider leurs décisions tout au long du processus.  Nous sommes en mesure de les accompagner sur ces différents besoins, et ce au niveau international avec notre réseau de Joint Ventures .

    Est-ce que l’addition de 2 spécialistes n‘aboutit pas d’une certaine façon à créer un institut généraliste ?

    Pascal Bluteau : Nous ne nous définissons pas comme un généraliste mais comme un multi-spécialiste. Notre particularité est d’affirmer des expertises sectorielles fortes, notamment les services et les medias pour WSA, le food, la cosmétique ou l’OTC pour Stratégir. Parce que nos clients attendent d’abord que nous connaissions bien leurs marchés, leurs publics, les acteurs en place, les codes et modes de fonctionnement… Ils nous demandent bien sûr une connaissance transversale des techniques d’études mais aussi une capacité à comprendre finement leurs univers de consommation, dans toute leur complexité. Nous avons pour ambition de préserver cette approche ‘experte’ de nos secteurs d’activité, avec des outils méthodologiques enrichis et diversifiés, mis en œuvre par des équipes spécialisées qui savent travailler ensemble  .

    Comment définiriez-vous l’ambition de Stratégir-WSA à horizon 3 ou 4 ans ?

    Luc Milbergue : Nous souhaitons rester un institut indépendant, centré sur les problématiques produits  et services, de l’innovation jusqu’au point de vente. Nous voulons également être reconnus pour notre capacité à développer nos expertises métiers et sectorielles au niveau international à travers un business model spécifique,  via notre réseau de Joint Ventures.

    Comment va être organisée la nouvelle structure ?

    Luc Milbergue : Stratégir WSA sera une filiale, basée à Paris, détenue à 70% par Stratégir et à 30 % par les trois dirigeants de WSA : Pascal Bluteau, Dominique Suire et Jean Pierre Michel .

    Vous avez évoqué une forte convergence entre les deux équipes dirigeantes sur le plan des valeurs. Quelles sont donc les valeurs que vous partagez plus particulièrement ?

    Pascal Bluteau : Le terme « valeurs » est souvent surexploité en marketing…. Mais dans notre cas, il est clair que nous partageons des valeurs humaines fortes et concrètes. Nous développons le même mode de relation au client : une relation sur le long terme, de confiance, qui nous permet de connaître ‘intimement’ les problématiques et enjeux des marques… avec des historiques client longs.  Plusieurs d’entre eux travaillent avec nos structures depuis  plus de 20 ans.

    Luc Milbergue : Nous sommes réellement attachés au bien-être de nos collaborateurs. Ce ne sont pas quelques mots réunis dans une charte dans le hall, mais quelque chose que essayons de faire vivre en permanence, même si ce n’est pas simple tous les jours. Cela  passe notamment par la formation, l’accompagnement, les modes de management et le partage de savoirs

    Pascal Bluteau : J'ajouterai simplement que nous partageons le même esprit de rigueur et le même plaisir dans la recherche de solutions méthodologiques adaptées. Nous aimons faire des études utiles dans un climat de travail agréable, en étant convaincus qu’il existe un cercle vertueux entre satisfaction interne et satisfaction clients.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Luc Milbergue   @ Pascal Bluteau

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  28. Le Printemps des études doit être une source d’inspiration pour le marché - Interview de Stéphanie Perrin, directrice d’Empresarial, Commissaire Générale du Printemps des études.

    24 févr. 2015

    Né à l’initiative d’un collectif regroupant près de 500 acteurs de cet univers, le Printemps des études s’est imposé comme le grand événement fédérateur de l’année, à la fois pour les instituts, les prestataires de services associés à cette activité, mais aussi pour les entreprises utilisatrices des études marketing.

    A quelques semaines de sa 4ème édition, qui se déroulera les 16 et 17 avril à Paris au Palais Brongniart, nous avons interrogé la principale chef d’orchestre du Printemps des études, Stéphanie Perrin, pour prendre avec elle le pouls de la manifestation à venir.

    MRNews : L’an dernier, vous évoquiez ce paradoxe : celui d’un contexte économique difficile pour le marché des études, et en même du temps d’une forte vitalité de ce secteur. Un an plus tard, c’est le même constat qui s’applique ?

    Stéphanie Perrin : Il semble que la situation se soit encore un peu durcie par rapport à l’an dernier. Le contexte économique général reste difficile, mais il ne faut pas sous-estimer les évolutions structurelles que connaissent les études marketing, et dont l’impact est majeur. Les évolutions technologiques y contribuent, mais on assiste également à une remise en cause de l’équilibre des besoins des entreprises. On voit notamment progresser la demande pour des outils s’inscrivant dans un principe d’instantanéité, avec l’interrogation de panels ou de communautés de clients appartenant en propre aux entreprises. Les budgets sont tendus, avec une pression sur la taille des effectifs des équipes qui les gèrent dans les entreprises. Tout cela fait naître ou accentuer le besoin pour de nouveaux types d’outils, et génère aussi une redéfinition des frontières entre instituts et prestataires de services.

    La présence de Google ou d’Orange au sein de Syntec Etudes sont j’imagine des signes forts de ces changements…

    Bien sûr. Mais la vitalité est en effet toujours là ; et elle s’est traduit ces derniers mois par des mouvements significatifs, comme la prise de participation de la société mère de Toluna au sein d’Harris Interactive, ou plus récemment par le rachat de WSA par Stratégir.

    Si l’on devait résumer l’édition précédente du Printemps en 5 chiffres clés, lesquels citeriez-vous ?

    J’adore cet exercice !  Je citerais le nombre de sociétés participantes, qui s’est élevé à 119, les 9 grandes conférences qui ont attiré 1402 auditeurs. Il y a également eu 58 rendez-vous organisés par 42 sociétés. Et nous avons eu très précisément 2393 visiteurs professionnels, soit quasiment +10% par rapport à l’édition précédente. Il faut que vous m’accordiez 7 chiffres ! Cette année, c’est avec 120 acteurs majeurs, 12 grandes conférences et 52 rendez-vous que le Printemps des études ouvrira ses portes.

    Quelle(s) touche(s) particulière(s) souhaitez-vous apportez à cette édition 2015 ?

    Notre ambition reste inchangée. Il s’agit d’essayer de faire en sorte que les participants se laissent porter par le souffle du Printemps, qu’ils découvrent avec ce « petit vent d’air frais » des solutions, des pratiques et plus largement des idées inspirantes. La conférence d’ouverture est toujours très importante pour notre manifestation ; elle donne le « la ». Celle de cette année portera sur le thème de l’Homme androïde, l’Homme connecté. Nous allons donc évoquer - avec François Bellanger en « main speaker » - notre rapport au corps, avec la question de savoir jusqu’où on peut aller en ce sens. Où s’arrête la course à la performance qui est incluse dans cette dynamique, et jusqu’à quel point l’Homme peut-il être le cobaye de tout cela. Cette grande problématique se retrouvera également dans d’autres prises de parole, sous des angles différents comme par exemple celui des objets connectés.

    Faut-il attendre que l’objectif du Printemps n’est pas de ne parler que des études, mais d’évoquer aussi des thématiques clés sur la façon dont notre société se transforme ?

    C’est juste en effet. Mais je crois qu’il est dans la nature même de cette profession que de s’intéresser à la façon dont évolue notre société. La notion de « temps réel » et d’instantanéité est par exemple très présente dans les solutions d’études qui seront présentées dans le cadre du Printemps.

    Voyez-vous des points particuliers à évoquer au chapitre des nouveautés ou des évolutions importantes ?

    Nous avons cette année encore cherché à optimiser les modalités d’accès au contenu de la manifestation. Je pense notamment à l’application Printemps, que nous avons lancé l’an dernier mais qui devrait cette année apporter plus de fonctionnalités, avec la possibilité notamment d’accéder à plus de contenu des intervenants sur les grandes conférences. Cela s’appliquera aussi au contenu des auteurs présents sur le salon, puisque nous avons maintenu le principe d’une rencontre entre le public et ceux-ci ceux-ci via «  le coin des auteurs ». Et par ailleurs, nous avons renforcé la mécanique des visites guidées, qui avait connu un succès encourageant l’an dernier, et qui permettent aux participants qui le souhaitent de découvrir les solutions d’une sélection de sociétés sur une thématique donnée. Nous avons retenu quatre thématiques cette année : les études santé et médiacales, les études de satisfaction et de fidélité, les nouveaux livrables quali et quanti. Et enfin comment mettre en place des études dans des pays émergents.

    De nouveaux partenaires seront-ils présents ?

    Nous aurons en effet la présence de deux nouveaux partenaires institutionnels. L’AFM (Association Française du Marketing) qui donnera son point de vue sur l’Homme connecté. Et nous aurons également la présence du Master Communication et Marketing de l’Université Panthéon-Assas, qui lance une formation continue dans le domaine des études. Même si ce n‘est pas un nouveau partenaire, puisqu’il nous a soutenu dès l’origine du projet, il est évident qu’il y aura un sens encore plus fort cette année à la présence d’Esomar, dont le nouveau président Monde est français, ce qui ne fait que conforter la place de notre pays sur la scène mondiale des études.

    Vous évoquiez en préambule le bouleversement des frontières et l’arrivée de nouveaux acteurs dans l’univers des études. Est-ce que cela aura un écho sur la nature des sociétés participantes ?

    Nous allons bien sûr retrouver des acteurs historiques de la data, comme Socio, mais aussi des nouvelles sociétés comme SPLV Analytics. Un des représentants de Google aura l’occasion d’intervenir dans une des conférences. Et nous aurons enfin la présence d’acteurs issus du monde des médias, avec le témoignage de Laurent Guimier, Directeur de France info, ou encore la présence de Mondadori, TF1 Publicité…

    Je vais à nouveau vous demander un chiffre. Lequel traduirait selon vous le mieux la réussite du Printemps 2015 ?

    La réponse me semble plus aisée cette fois-ci. Je crois tout simplement que l’évènement sera réussi si la grande majorité des acteurs se projette dans une nouvelle édition. Ce sera en l’occurrence la 5ème, ce qui correspond toujours à un anniversaire important pour ce type de manifestation. Les 120 sociétés présentes en 2015, et nous même, organisateurs épaulés par deux comités, ferons tout pour cela en tout cas.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Stéphanie Perrin

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Salons / conférences / Vie de la profession /
  29. Syntec Etudes lance la 4ème édition d’Idées pour le Futur - Interview de son vice-président, Benoit Volatier

    27 janv. 2015

    Et si l’une des meilleures façons de faciliter l’innovation était de donner l’opportunité aux porteurs de projets de présenter leurs idées en public (qu’elles soient avancées ou bien encore embryonnaire), et de déclencher ainsi la dynamique vertueuse du partage, de l’hybridation et de la cross-fertilisation ?

    Voici résumé en quelques mots le principe de cette initiative lancée par Syntec Etudes qui, fort de la réussite des précédentes éditions, vient de déclencher l’appel à de nouvelles idées, qui seront présentées à l’occasion du prochain Printemps des Etudes en Avril 2015. Benoit Volatier, vice-président de Syntec Etudes, nous en dit plus sur le pourquoi de cette initiative et le comment de cette nouvelle édition.

    MRNews : Le principe de cette initiative Syntec Etudes - Idées pour le Futur - est de mettre en relation des porteurs de projets issus de différents univers, et notamment de celui des études marketing. Mais plus précisément, quelles sont les grandes lignes du dispositif et sa mécanique ?

    Benoit Volatier : Concrètement, le dispositif consiste en effet à permettre à une quinzaine de porteurs de projets de pouvoir présenter leurs idées de produits ou de services à des professionnels des études et du marketing, à l’occasion du Printemps des Etudes. Sous l’angle de la forme, deux points nous semblent importants. Il faut qu’il y ait un effet d’accumulation, la visée étant qu’une quinzaine d’idées soient présentées. Mais nous tenons aussi à ce qu’il y ait du rythme dans les présentations. Cela nous a conduit à retenir un  format ou les porteurs de projets ont 2 à 3 minutes pour présenter leurs idées, avec simplement une page powerpoint. Nous cherchons aussi à faire en sorte que cette présentation ait un caractère un peu « spectaculaire », afin que l’expérience soit agréable pour le public.

    Celui-ci est donc constitué d’une centaine de professionnels des études et du marketing…

    Oui, l’idée étant que l’auditoire soit aussi ouvert que possible, dans la limite des places disponibles bien sûr, mais tout en veillant à ce que soient respectées un certain nombre de valeurs importantes pour nous. La bienveillance et la curiosité doivent être au rendez-vous. Je rajouterais aussi le principe de sérendipité, la philosophie étant que les gens viennent sans attentes particulières, en se disant que nul n’est jamais à l’abri d’une bonne surprise !

    Comment définiriez-vous ce qu’est une « idée », et comment les sélectionnez-vous ?

     Ce sont des idées ou des projets, les deux termes étant pour nous parfaitement interchangeables. Cela peut se situer à n’importe quel stade, à un moment où l’idée est encore embryonnaire – cela ressemble plus à un concept - ou bien plus tard, au moment du pré-lancement commercial. Mais il y a un nom, un « quoi », qu’il s’agisse d’un produit ou d’un service, un « qui » (la cible donc), et un « pourquoi », ou dit autrement un bénéfice pour cette cible. Et bien sûr, il faut que cela s’inscrive dans le futur ; si le produit ou le service a déjà été lancé, cela n’aurait pas sens à ce qu’il soit présenté ici. Un jury procède à une sélection pour s’assurer que les projets s’inscrivent bien dans le cadre. L’an dernier, nous avions reçu 20 projets, et 15 ont été présentées, la sélection se faisant dans le cadre d’une répétition, le 2 avril, 15 jours avant le jour J.

    Comment cette idée est-elle née ? Pourquoi avoir pris cette initiative ?

    De par notre rôle de syndicat, nous avons bien sûr une certaine responsabilité vis-à-vis de notre profession et de nos métiers. Nous nous posons naturellement la question des services que nous pouvons apporter à nos membres et plus largement à la communauté des études. Et nous nous sommes dits que nous pouvions contribuer à favoriser l’innovation dans notre secteur, en facilitant la circulation des idées et aussi l’interconnexion des organisations. Nous avons donc cherché dans cette direction, autour de ces principes très importants en termes d’innovation que sont l’hybridation et la fertilisation croisée. Nous avions aussi la volonté de contribuer à ce que notre secteur soit le plus vivant possible et aussi plus poreux, qu’il se laisse plus facilement hybrider par les idées venant d’ailleurs.

    Ces « idées pour le futur » ne se limitent donc pas à l’univers des études ?

    Nous essayons de faire en sorte qu’il y ait un lien possible. Mais celui peut en effet être très lointain. A l’occasion d’une précédente édition, nous avons par exemple accepté la présentation d’un projet portant sur la notion de citoyens-capteurs. L’idée reposait notamment sur la constitution d’un réseau d’individus qui acceptaient d’installer sur leur balcon des capteurs pour générer un système de monitoring de la qualité de l’atmosphère. A priori, cela semble très loin du domaine des études. Et pourtant, si l’on y réfléchit un peu, il y a là des notions très intéressantes pour notre univers. On se sert de l’intelligence collective pour effectuer des mesures. On peut donc envisager d’autres applications, qui entreraient pour le coup dans le champ des études. Le fait est que les études sont naturellement en contact avec beaucoup d’univers. Notre tropisme naturel est celui du marketing. Mais il ne se limite pas à cela. Il s’étend à la communication, aux ressources humaines, et même à la production, et à l’informatique. En termes de secteurs d’activités, les études sont présentes partout. Et les études ont de plus en plus intégré des composantes technologiques. Si de nouvelles façons de produire ou de diffuser de l’information apparaissent, il y a de fortes chances que cela puisse nous intéresser. C’est ce qui nous incite donc à être très ouverts quant à la nature des projets qui sont présentés.

    Quels sont les avantages pour les porteurs de projets ?

    J’en parle d’autant plus facilement que j’ai moi même eu l’occasion de présenter un projet, et d’autres vous le diront bien sûr : c’est extrêmement motivant. C’est une occasion qui peut permettre aux porteurs d’idées d’avancer d’une, deux ou même trois cases en quelques minutes. Leurs idées prennent l’air, le networking se met en place. En exposant une idée à une centaine de personnes, j’ai de fortes chances qu’il y en ait au moins une au sein du public qui s’y intéresse et m’aide d’une façon ou une autre à avancer, en me proposant des solutions ou des débouchés auxquels je n’aurais pas pensé. Et le fait de réaliser l’exercice et de passer par le format de présentation que nous avons évoqué est également très vertueux. Cela oblige à aller à l’essentiel et à être consistant.

    Est-ce qu'il n'y a pas un risque pour eux de se faire voler leurs meilleures idées ?

    Les idées sont-elles volables ? Ce n’est pas ma vision des choses, je crois en réalité que les idées sont de « libre-parcours ». C’est aussi la vision du droit français. Il y a derrière cela une croyance entrepreneuriale très importante, qui veut qu’une idée en elle-même ne vaut pas grand-chose, l’essentiel se jouant au moment de l’exécution. L’autre idée cousine de celle-ci est que la meilleure façon d’avancer est de faire des erreurs. Cela me parait pour ma part une excellente philosophie ; nous avons beaucoup à gagner à lâcher prise avec cette idée de la perfection ingénieurale à la française.

    Comment mesurez-vous le niveau de réussite de cet évènement ?

    Le nombre de personnes présentes au moment de la présentation est déjà un très bon indicateur. Si tout le monde ne parvient pas à s’asseoir, c’est parfait ! Et aussi le plaisir que ressentent les gens à présenter et à partager leurs idées. L’essentiel de la valeur se crée dans ce partage, dans la façon dont l’idée d’une personne accroche avec une autre, et apporte même parfois la pièce manquante du puzzle. Ce plaisir là n’est pas facile à mesurer, mais il se voit, il se sent. Notre réel objectif est de donner un cadre, une opportunité, cela s’arrête là et c’est très bien ainsi.

    Concrètement, que doit faire la personne qui souhaite présenter une idée ?

    Elle doit simplement remplir le petit formulaire accessible depuis le site de Syntec Etudes, avec le nom du projet et une petite description en 4 lignes. La date limite est le 27 février. Elle sera ensuite invitée à passer devant le comité de sélection dans le cadre d’une sorte de répétition, avant le jour J le 17 avril au Palais Brongniart


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé  : @ Benoit Volatier

    • Accéder au site Syntec Etudes pour information et/ou inscription : Idées pour le futur

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Innovation / Interviews / Vie de la profession /
  30. Un auteur à suivre dans la media-sphère marketing : Christophe Benavent

    27 janv. 2015

    Après les « Chroniques d’une marketeuse repentie » de Babette Leforestier et le Brand News Blog d’Hervé Monier, nous poursuivons notre séance de découverte des blogs et des auteurs qui alimentent régulièrement la réflexion sur les pratiques du marketing (cf. la rubrique blog de notre page Liens Utiles), avec cette fois-ci un petit coup de loupe sur les contributions de Christophe Benavent.

    Enseignant-chercheur à l' Université Paris-Ouest, Christophe Benavent intervient sur de nombreux enjeux, avec une prédilection particulière pour le décorticage en règle d’un certain nombre de « cas marketing » emblématiques des pratiques d’aujourd’hui.

    Nous vous proposons donc de découvrir une petite sélection de 7 articles et interventions de cet auteur à suivre, qu’ils aient été publiés dans son blog ou sur d’autres média.

    1. Dans les secrets des prix sur Amazon : comment le géant du e-commerce réussit à se jouer des perceptions des consommateurs 

    Comment parvenir à apparaître aux yeux des consommateurs comme l’enseigne la moins chère, tout en ne l’étant pas nécessairement toujours ? Une mise à plat particulièrement précise des pratiques du géant Amazon, et une belle remise en question de l’idée selon laquelle, grâce à internet, les consommateurs seraient devenus tout-puissants

    2. Pourquoi Free est-il si apprécié alors qu’il n’est pas parfait ? (vidéo)

    Une réflexion sur la force du levier communautaire, et sur la façon dont Free s’en est emparé pour venir challenger les opérateurs historiques dans l’univers des télécoms. Avec au passage un retour sur ce que signifie réellement la notion de satisfaction.

    3. De Zipcar à Airbnb : le partage est-il l'avenir de l'économie ?

    Avec l’exemple du rachat de ZipCar par la marque Avis, et avec le succès d’AirBnB, Christophe Benavent évoque la question de l’impact de ce nouveau modèle dans notre économie,  avec quelques chiffres particulièrement intéressant à avoir en tête

    4. Tristes soldes 2015 : pourquoi la crise est loin d’être la seule responsable

    Une belle invitation là encore à faire fi de certaines idées reçues, et à faire la part des choses entre des facteurs économiques, des évolutions culturelles, et les effets collatéraux des pratiques promotionnelles en distribution.

    5. Pourquoi la vraie guerre de l'internet est celle qui opposera Google et Amazon

    Certaines plateformes comme Amazon ou Booking.com ont pris un tel poids qu’elles en viennent à concurrencer Google dans les recherches effectuées par les internautes, avec l’atout additionnel de l’ergonomie de leur applications mobiles. Christophe Benavent donne sa vision de ce que pourrait être l’issue de cette « guerre »

    6. En attendant Netflix : réflexions sur la prescription

    L’auteur prend prétexte ici de l’arrivée de Netflix pour développer une réflexion relativement poussée sur les ressorts sous-jacents au succès des stratégies de prescription, et sur les options à prendre en considération dans leur mise en œuvre.

    7. Bonne année, bonne santé, et plein d’sous dans l’porte-monnaie !

    Calendrier oblige, difficile de ne pas clore cette short-list par cette invitation, avec à la clé une réflexion particulièrement saisissante sur le lien entre richesse matérielle et bonheur !


     POUR ACTION 

    Commenter 

    • Accéder au blog de Christophe Benavent : cliquer ici

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Blogs / Revue de web /
  31. Interview de Laurent Florès, nouveau président de l’organisation mondiale Esomar

    27 janv. 2015

    La plus grande organisation mondiale des études et de la recherche marketing, Esomar, a élu il y a quelques semaines son nouveau président. Et c’est le Français Laurent Florès, qui est membre de son conseil de puis 2010, qui a été désigné et qui présidera donc l’organisation pour les années 2015 et 2016.

    Quel est son parcours ? Qu’est-ce qui a motivé sa candidature et quelles sont ses convictions clés ? Voici les petites questions que nous avons posées à Laurent Florès, qui a accepté d’y répondre.

    MRNews : Depuis le 1er janvier de cette année, vous êtes le nouveau président d’Esomar, qui est la plus grande association mondiale dans l’univers de la recherche marketing. C’est une première pour un Français ?

    Laurent Florès : En effet. C'est avec un grand honneur que j'ai accueilli les résultats de l'élection. Et je tiens bien sûr à remercier l'ensemble de la communauté française pour son soutien.

    Pourriez-vous nous résumer les grandes lignes de votre parcours professionnel ?

    Je travaille dans l'environnement des études, et plus largement de la "data" depuis près de 25 ans. Mon parcours m'a emmené en Angleterre, en France puis aux Etats Unis, pays où je suis devenu Entrepreneur dans le monde du Digital et des Etudes, en créant la société CRM Metrix qui s'est développée sur le continent américain puis en France et en Asie avant d'être vendue en 2011, et réintégrée dans un groupe d'études en plein développement. Dès 2000, la création de CRM Metrix était motivée par une conviction forte. Nous étions persuadé en effet que le Digital allait changer le métier des études : en proposant une nouvelle alternative de collecte bien entendu, mais aussi en permettant de transformer le "processus de création de valeur du métier". En effet, même si il faut toujours collecter des données, la digitalisation du monde a multiplié la disponibilité des flux de données qui représentent autant d'opportunités pour le "marketing intelligence". Il faut certes collecter des données, mais aussi et surtout de plus en plus les intégrer à d'autres types de données, les organiser, les analyser et les distribuer pour "décider". C'est donc moins la collecte que "l'Analytics" qui va permettre au métier de continuer à se développer et à prospérer. Tout naturellement, aujourd'hui, je partage mon temps entre l'enseignement et la recherche (Université Paris II), et le développement de projets entrepreneuriaux dans le domaine de l'Analyse de données avec la société SLPV-Analytics et de l'Internet des Objets via le développement d'une nouvelle application.

    Qu’est-ce qui a motivé votre candidature à la présidence d’Esomar ?

    Je dirais que c’est la volonté de modestement contribuer à un renouveau et une revalorisation du métier des études, métier qui doit profiter de l'engouement du monde pour la data, l'analytics, et le digital au sens large. Il y a là une véritable opportunité mais qui nécessite sans doute une remise en cause et une adaptation au nouvel environnement. Par ailleurs, mon objectif est de "rendre", "give back" en anglais, au métier car le métier m'a beaucoup apporté, je suis animé par la profonde conviction de son utilité et de son importance sous la condition qu'il reste "pertinent" et en phase avec le monde d'aujourd'hui. Tant pour qu'il continue à attirer des nouveaux talents que pour continuer à se développer et prospérer.

    Un terme revient très souvent dans vos propos, c’est le terme de valeur, associée donc aux études et à recherche marketing. Dans votre vision des choses, c’est LE grand enjeu de la profession pour aujourd'hui et les années à venir ?

    Oui, car ce n'est qui n'a pas de valeur n'a pas de prix, et ne s'achète pas et donc est tout simplement dévalorisé. La question est donc "qu'est ce que je vends et où je crée de la valeur, quelle est son prix et comment je valorise ce que je fais, mais au delà que dois je faire mieux, en plus pour créer cette valeur".

    Quelles sont vos convictions quant aux actions prioritaires pour réussir ce challenge de la valeur des études et de la recherche marketing ?

    La priorité des priorités consiste à mieux valoriser ce que nous savons faire. Mais je crois qu’il faut aussi que nous acceptions de sortir de notre « zone de confort", notamment pour être pertinent sur d'autres types de données, mieux les intégrer, mieux valoriser l'analyse qui en résulte, et aussi donc le faire savoir !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Laurent Florès

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  32. Le groupe BVA crée un département dédié aux Data Sciences – Interview de son nouveau directeur Thierry Vallaud et de Richard Bordenave, DGA Marketing & Innovation du Groupe BVA.

    14 janv. 2015

    Si, du côté des acteurs des études, le terme de Big Data est présent dans tous les esprits et quasiment toutes les bouches, il peut néanmoins s’écouler un certain temps du discours aux actes, rares étant encore aujourd’hui les instituts ayant intégré ce champ dans leur domaine de prestation.

    C’est le cas aujourd’hui pour le groupe BVA, qui a annoncé il y a quelques jours la création en son sein d’un département Data Sciences, dont la direction est confiée à Thierry Vallaud (ex Socio Logiciels). Celui-ci a accepté de répondre à nos questions avec Richard Bordenave.

    MRNews : Thierry Vallaud, vous avez quitté Socio Logiciels pour rejoindre BVA et prendre la direction d’un nouveau département BVA Data Sciences. En d’autres termes, vous quittez une structure spécialiste de l’analyse des données pour un grand institut généraliste ou multi-spécialiste. Ce changement de cadre modifie-t-il beaucoup de choses, philosophiquement, dans la façon d’utiliser ces techniques de l’analyse des données ? 

    Thierry Vallaud : A partir du moment où la data se généralise, il nous semble assez évident que l’activité de data science – qui consiste en l’analyse de cette donnée – doit se « populer » plus largement. En somme, nous ne faisons que tirer les conséquences d’une tendance de fond. Pour répondre aux problématiques des entreprises, il est clair qu’on pourra de moins en moins faire des études sans faire par ailleurs la démarche d’aller observer et analyser les données existantes. Ce métier de l’analyse des données est donc naturellement amené à sortir un peu de sa spécialisation, à s’ouvrir. Il gardera bien sûr sa spécificité analytique, mais il va l’appliquer au plus grand nombre, parce qu’il y a plus de datas et aussi plus de demandes. C’est précisément le rôle d’un institut généraliste que de répondre à une large demande et d’adresser les problématiques des annonceurs, globalement, quelque soit la nature de la donnée utilisée pour cela.

    L’intégration de ces compétences techniques pourrait néanmoins se faire autrement, par la mise en œuvre de partenariats notamment. Le fait d’internaliser ces compétences correspond à une démarche plutôt volontariste…

    TV : Quand un marché est un marché de niche, il est logique d’y trouver des acteurs de niche, avec des spécificités fortes quant aux solutions mathématiques et logicielles utilisées. Quand ce marché s’élargit, ces spécificités restent mais il est dans la logique des choses qu’elles viennent enrichir la réponse des généralistes ; c’est un nouvel outil qui se rajoute à la palette des solutions existantes. Par ailleurs, les synergies entre les études et data sont évidentes ; l’étude peut bien sûr servir directement à répondre à la question posée, mais elle peut aussi servir à enrichir une base plus globale. La frontière entre études et bases des données étant de plus en plus ténue, il est logique de viser à ce que les deux se servent et s’enrichissent l’une l’autre dans les meilleures conditions possibles. Ce qui n’empêchera ponctuellement de faire des partenariats sur des aspects IT, logiciels avec IBM ou Microsoft par exemple, ou plus hardware, facilities management avec SSII.

    Richard Bordenave : L’enjeu culturel est également très important. Ce changement de paradigme évoqué par Thierry - sur la source de la donnée et la manière de répondre aux questions clients - doit se diffuser au sein de l’ensemble de l’entreprise. Nous connaissons les questions principales des clients, nous avons aussi l’expertise sectorielle, en revanche il nous manquait jusqu’ici un appui spécialiste sur la manière d’intégrer toutes les potentialités des nouveaux outils de traitement et le croisement de données issues de multiples sources : études, bases de données ou autres sources externes. D’ou l’idée de cette entité, qui est là pour produire des prestations mais a aussi vocation à diffuser au sein de l’institut une culture du Big Data.. Derrière cela, il y a des façons de penser, un vocabulaire, un regard sur la donnée ou la finalité d’un échantillon qui sont complémentaires aux approches études traditionnelles et  que l’on va essayer d’essaimer le plus possible au sein du groupe. La formation sur les outils est aussi un enjeu clef afin d’assurer le développement de profils « multiculturels » au sein de BVA. 

    Y compris auprès des équipes en charge des études qualitatives ?

    TV : Oui, pourquoi pas ? Les qualitativistes produisent beaucoup d’images. On sait collecter, renseigner et hiérarchiser ces images et leur donner du  sens à l’analyse ensuite. On parle beaucoup d’analyse textuelle, de données non structurées. Peu de sociétés ont par exemple développé des solutions pour analyser automatiquement les verbatims. Le faire à un petit niveau, mais bien, ce peut-être aussi un réel enjeu. Plus largement, on pourrait croire que l’institut est féru de data. Il l’est d’une certaine façon. Mais d’une certaine data, avec certains tropismes, certains traitements… Le statisticien en institut intervient pour mettre en valeur l’information, la modélisation statistique est portion congrue. Et les plus grosses études portent sur 15 000 individus. Quand on parle de Data Sciences, on passe à une tout autre échelle. On a commencé chez BVA à analyser nos premières bases qui font 600 milliards de lignes.

    Comment définiriez-vous en quelques mots la vocation de ce nouveau département ?

    TV : L’objectif se définit très simplement. Il s’agit d’intégrer dans l’offre de BVA des savoir faire autour de l’exploration de la donnée, de la modélisation, du data-mining, du machine learning pour pouvoir répondre en particulier aux besoins des annonceurs susceptibles de disposer de données en propre. Et il s’agit également d’essaimer des pratiques mixtes intégrant études et analyse de la data pour proposer des nouvelles offres basées sur celles-ci.

    RB : Nous sommes clairement dans une logique d’expérimentation sur un marché qui est en train de se structurer. Sur le datamining, les outils existent et sont packagés. Sur la partie big data, l’heure est plus à l’expérimentation, avec divers chantiers à mener avec différents secteurs et annonceurs.. De fait, investir sur la big data n’est pas à la portée de toutes les entreprises. Nous avons donc vocation à aider certaines d’entre elles à entrer sur ces sujets en bénéficiant d’une infrastructure et d’une équipe de data-scientists directement opérationnelle.

    Big Data ne doit pas nécessairement être synonyme de « big » moyens ?

    TV : Je mettrais le terme de Big data entre guillemets, parce que la donnée n’est pas nécessairement big. Elle l’est lorsqu’on dépasse les 500 gigas de données, ce qui n’est si fréquent dans les BDD marketing/CRM. Mais l’idée est bien en effet que BVA puisse aider les entreprises en leur apportant des solutions clés en main lorsqu’elles souhaiteront réaliser des études à partir de leurs propres données. Nous devons aider nos interlocuteurs en entreprise à s’affranchir des problèmes de « tuyauterie » : Où dois-je stocker les données ? Avec quelles solutions techniques ? Comment respecter les impératifs de sécurité ? Notre vocation est bien d’aider les gens concernés dans les entreprises à se concentrer sur leurs besoins et leurs objectifs d’étude. Pour cela nous lançons une offre clef en main et modulable de stockage en local, sur le cloud et sur un cloud plus privé pour les données les plus sensibles, accessible avec des outils distants entièrement on line pour les analyser.

    Quelles sont les grandes composantes de votre offre de services ?

    TV : Elle se structure autour de 5 grands piliers. En complément de l’analyse de données complexes - avec les équations structurelles et l’analyse des données chronologiques -  et du datamining, nous proposons des services d’audit et d’enrichissement de l’information. C’est un point important. L’idée est d’aider les entreprises à voir comment elles peuvent intégrer de nouvelles informations dans leurs bases, par exemple avec l’usage de mini-questionnaires spécifiques au touch-points, ou de l’open data par exemple. Il y a naturellement un pilier spécifique de géo-fancing et géomarketing, la dernière activité étant le conseil et la formation.

    Qu’en est-il en termes d’équipe ?

    TV : Je bénéficie aujourd’hui de ressources au sein des équipes existantes, avec l’appui notamment de la cellule de Data Management, dirigée par Mathieu Dombrie. De nouvelles personnes dédiées à la data science arriveront prochainement, mais l’idée est néanmoins d’utiliser prioritairement les ressources existantes, en permettant aux personnes concernées de monter en puissance sur de nouveaux outils comme l’analyse textuelle, le géomarketing et la modélisation. Ces personnes se mettent ainsi au service des différents projets, sachant que pour les projets complexes, nous mettons en place des équipes mixtes.

    Sur le plan commercial, il n’est pas si évident pour une entreprise qui aurait des besoins d’analyses de données de penser à BVA…

    TV : C’est vrai. Cela signifie qu’il y a en effet des enjeux de communication. C’est une des raisons qui nous font créer un département. Mais en ce qui concerne l’offre, je pense que l’on va assister à une mutation importante, avec d’un côté des spécialistes de l’analyse de données de plus en souvent rachetés par des sociétés assez éloignées de leur marché primaire (celui du CRM en particulier), et de l’autre côté des instituts qui vont intégrer dans leur offre ces composantes de big data et d’analyse des données. Les lignes vont donc naturellement bouger.

    RB : Le fait que nous sommes naturellement amenés à répondre à des problématiques globales – celles que nous soumettent nos clients – peut aussi être un facteur d’opportunité, l’analyse des données permettant d’apporter des solutions nouvelles et intéressantes. On est dans un marché ou l’avancée technologique crée des opportunités de répondre à des questions qui peuvent encore n’être qu’implicites : nos premiers chantiers engagés dans ce domaine montrent que la valeur nait du fruit de l’expérimentation.  

    Qu’est-ce qui vous fera dire que le pari est réussi, dans les 12 ou 18 mois à venir ?

    RB : Le pari sera réussi si la greffe a fonctionné, et si les gens au sein de BVA parlent de Data de façon crédible, en sachant expliquer ce que cela apporte à nos clients. Il s’agit bien de faire évoluer la manière de poser les problèmes en intégrant la composante Data comme une modalité de réponse intéressante.

    TV : Tout à fait. C’est bien l’enjeu culturel que nous avons évoqué précédemment. Mais la réussite du pari se mesurera aussi au fait qu’un certain nombre de solutions fonctionnent. Je pense en particulier à l’analyse des données textuelles, et aussi aux solutions de stockage de données clefs en main que nous proposons. Il y a bien un cap important à passer avec la création d’un serveur Hadoop, fonctionnel et simple à utiliser. Cela vient naturellement en complément des objectifs de chiffre d’affaire.

    Si vous aviez un conseil à adresser aux entreprises sur la meilleure façon d’exploiter ces opportunités qu’apportent les big data et plus largement les data sciences, quel serait celui-ci ?

    TV : Je crois qu’il faut commencer « petit ». Et il ne faut pas avoir honte de ses questions. Cela commence par un audit des datas. Les annonceurs ont souvent le sentiment qu’ils ne sont pas très riches. En réalité, ils le sont bien plus qu’ils ne le perçoivent, et de toute façon, il faut bien commencer par quelque chose. Si ce quelque chose est productif on avance. Je crois vraiment à la vertu d’avancer pas à pas, sans se lancer d’emblée dans des investissements lourds ni se laisser enfumer par les langages informatiques ou les problématiques de tuyaux. Dans ce domaine comme dans bien d’autres, le mieux est vraiment l’ennemi du bien ! Je pense  par contre que au-delà de POC (Prof Of Concepts) répétés il faut avoir un vrai besoin opérationnel identifié, un besoin métier. Le POC technique pour lui-même n’a pas réellement de sens.

    Je crois aussi qu’il y a un enjeu à ne pas s’enfermer dans cette logique d’usage des datas et ces pratiques où l’on sollicite les clients finaux à outrance. Il y a un vrai principe d’écologie à appliquer, en évitant d’envoyer systématiquement des messages aux clients en fonction des datas que l’on collecte sur eux. Il y a toujours mieux à faire que de scier la branche sur laquelle on est assis ! Préserver le client final de la sur-sollicitation, permettre le droit à l’oubli sont donc de vrais enjeux.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Thierry Vallaud   @ Richard Bordenave

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession / Les 10 articles les + lus /
  33. Les tendances clés pour le futur : la vision d’Ipsos France (Trend Observer 2015)

    16 déc. 2014

    Dire que nous évoluons dans une société complexe relève bien sûr du truisme. Dans ce contexte, c’est toujours une gageure que de parvenir à résumer en quelques formules et quelques mots les tendances les plus marquantes pour les mois et les années à venir. C’est néanmoins le défi que relève chaque année les équipes d’Ipsos Public Affairs, au travers de la démarche Trend Observer.

    Pour cette édition 2015, ce sont 6 grandes tendances qui sont énoncées par l’institut et qui s’intègrent dans une grande mutation centrale résumée sous le terme de « l’âge du Faire ». Qu’est-ce à dire ? Quelles sont donc ces 6 tendances ? Et quels défis soulèvent ces mutations pour les acteurs de notre société ? C’est ce que nous vous proposons de découvrir ici.

    Voulons nous en faire plus ou en faire moins ?

    Pour les équipes d’Ipsos, il y a bien en effet un paradoxe majeur dans les évolutions de notre société, car si nous sommes dans l’âge du faire, il y a bien aussi un mouvement naturel de l’histoire, à l’œuvre depuis de nombreuses années déjà, qui consiste pour les êtres humains que nous sommes à faire de moins en moins de choses, en développant et en utilisant des machines ou des organisations destinées à nous simplifier la vie. La diffusion des équipements électro-ménagers, de la voiture, des hyper-marchés, puis de l’usage des ordinateurs, d’internet et de ses moteurs de recherche sont les exemples les plus emblématiques de ce phénomène, qui a toutes les chances de se poursuivre.

    Mais ce mouvement de fond coexiste avec une autre tendance et une autre aspiration, de plus en plus forte et de plus en plus structurante pour notre société : celle de faire de plus en plus de choses.

    Les français disent en effet de plus en plus ressentir le besoin de faire des choses par eux-mêmes. Ce « faire » est extrêmement large et se retrouve sous mille formes différentes. Faire, c’est par exemple aujourd’hui cuisiner, bricoler, faire de la couture ! Mais aussi apprendre, notamment en utilisant des tutoriels, que ce soit pour s’approprier des langues étrangères ou des techniques comme celles de la photo ou de l’informatique. Ou bien demain utiliser des imprimantes 3D, comme 41% des français en expriment l’envie. Cette envie est ainsi largement partagée : celle de créer, que celle-ci s’applique à des objets, à une activité économique, un site web, etc.

    Pourquoi ce besoin de faire ?

    Ce « faire » renvoie naturellement à une expansion considérable de l’univers des possibles, à l’échelle de tout un chacun, grâce au développement et à la diffusion des nouvelles technologies. Mais ce désir apparaît aussi dans une large mesure comme une sorte de réponse et peut-être même d’antidote à la complexité de notre monde. « Je comprends parce que je fais ». Ce faire s’inscrit ainsi dans le sens et dans la congruence pour des individus qui consacrent une bonne part de leur énergie à des activités qui leur apparaissent parfois comme bien inutiles.

    Ce faire s’inscrit aussi dans le besoin de retrouver un contact matériel, tactile, en réaction à un excès d’immatérialité. Il se nourrit également d’un désir de se passer des intermédiaires, d’être en prise directe avec autrui. Il se connecte enfin à une envie de consommer autrement, en refusant l’obsolescence programmée et en se tournant au contraire vers des pratiques de recyclage, que ce soit pour trouver des solutions économiques dans un contexte où il est de plus en difficile de joindre les deux bouts, ou bien pour des raisons plus symboliques.

    66% des français croient en la « débrouille »

    Derrière les évolutions que nous venons d’évoquer, un nouvel état d’esprit s’affirme, avec un certain nombre de croyances « montantes ». Parmi celles-ci, on trouve cette idée selon laquelle la débrouille est plus importante aujourd’hui que la détention de diplômes, partagée par deux tiers des français. Une autre valeur gagne également considérablement en importance : la créativité, les français n’ayant jamais autant valorisé l’imagination comme une faculté essentielle à développer pour chacun dans le monde contemporain.

    Pour les équipes d’Ipsos, ces évolutions sont déjà à l’œuvre depuis des années. Mais l’on assiste aujourd’hui à une accélération assez brutale de cette mutation, du fait donc en de la présence d’un certain nombre de tendances.

    Les 6 facteurs explicatifs de l’accélération de cette mutation

    1. Les progrès de la technologie et la diffusion de celle-ci mettent dans les mains des individus de plus en plus d’outils efficaces pour faire eux-même : « je fais parce que je peux faire ».

    2. La complexité du monde moderne donne envie de retrouver un contrôle sur sa propre vie, avec le désir donc de trouver plus de sens, plus d’utilité à ses propres activités.

    3. La défiance à l’égard des autorités et des institutions, qui incite de plus en plus les français à se débrouiller eux-mêmes, via les processus collaboratifs, et à se passer des intermédiaires dont la valeur ajoutée est insuffisamment visible.

    4. La sensibilité à l’égard du gaspillage, un nombre croissant de consommateurs prenant conscience du piège dans lequel les enferme l’obsolescence programmée, et valorisant le principe du recyclage des objets et des biens d’équipement.

    5. La durée de la crise économique éloigne la perspective d’un retournement économique favorable à court terme, et encourage ainsi les individus à adopter de nouvelles solutions, inspirées selon le principe du « do it yourself »

    6. La dématérialisation croissante de la vie quotidienne secrète en réponse une forme de nostalgie chez les individus, qui éprouvent l’envie notamment de redécouvrir des savoir-faire en voie de disparition.

    La population des « makers » ou des « manufacturers »

    Face à ces évolutions, certains individus apparaissent comme étant en avance de phase, en étant en particulier plus actifs que la moyenne de la population. Emerge ainsi une nouvelle génération d’individus, les « manufacturers » d’aujourd’hui, et que l’on ne saurait réduire à une tranche d’âge particulière. Une génération plurielle, avec quelques figures emblématiques (les Wikis, les Fabers ou bien encore les 3D Printers), mais rassemblée autour de la même aspiration à changer les choses dans la société, du goût de risque et de l’effort.

    Les 5 défis du futur pour les acteurs économiques et les institutions

    Dans ce contexte, 5 défis semblent en effet émerger fortement pour les acteurs du monde économique, politique et social.

    - Montrer : être transparent à la fois sur le pourquoi, le sens de leur action, mais aussi sur le comment et les moyens utilisés en vue de cela.

    - Partager : transmettre, éduquer aux savoir-faire, favoriser l’apprentissage des techniques

    - Coopérer : faire ensemble. Le risque à ne pas le faire étant, pour les entreprises et les institutions, à voir les individus coopérer entre eux, mais sans elles !

    - Promouvoir un esprit de communauté : réorganiser les structures pour redonner du sens au travail, en brisant les hiérarchies impersonnelles qui empêchent les individus non seulement de se projeter positivement vers l'avenir mais, tout simplement, de comprendre les finalités de leur action.


     POUR ACTION 

    Commenter 

    • Echanger avec les interlocuteurs Ipsos : @ Rémy Oudghiri,   @ Lise Brunet

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Résultats d'études /
  34. L’imaginaire de Marque, d’Yves Krief : et si plus de « modestie » était de mise dans la gestion des marques ?

    12 déc. 2014

    Au motif d’être accrocheur et y compris au rayon de la littérature marketing, un bon nombre de titres d’ouvrage font à l’évidence dans la sur-promesse. A contrario, il arrive parfois que certains livres, sous couvert d’un libellé bien sage, apportent des éléments de vision radicalement nouveaux sur des sujets pourtant déjà battus et rebattus.

    C’est bien dans cette deuxième catégorie que nous semble devoir se classer le dernier ouvrage publié par Yves Krief, PDG de Sorgem et concepteur des Fonds de Marque : « L’Imaginaire de Marque : L’explorer, le mesurer, décider ». Voici en quelques mots les raisons qui nous incitent à chaudement recommander la lecture de ce livre à nos lecteurs. 

    Notre propos n’est pas ici de résumer cet ouvrage, l’auteur s’étant chargé lui-même de le faire au travers d’un jeu de trois simples questions / réponses :

    -       Qu’est ce qu’une marque ? C’est une croyance

    -       Comment change-t-elle ? Comme un organisme vivant

    -       Comment la manager ? Par la gestion de l’incertitude

    Mais il consistera simplement à exposer les 7 principales raisons qui nous font inviter nos lecteurs à le lire, et même à en méditer les principaux enseignements pour action.

    1. Parce que l’initiative est courageuse !

    A dire vrai, la rédaction de ce type d’ouvrage nous semble doublement courageuse. D’abord parce qu’elle vise à donner un cadre théorique solide au service de l’action, ce qui n’est pas si fréquent par les temps qui courent où priment l’action et le pragmatisme. Mais le courage – ou la témérité diront certains – se mesure aussi à l’aune de la difficulté de l’exercice. Il n’est pas si facile en effet de produire un nouvel opus théorique et d’apporter une réelle plus value sur ce thème, au sujet duquel tout semble avoir déjà été dit et écrit. La difficulté est même renforcée puisque le propos de ce livre ne se focalise pas sur une sous-question particulière dans la gestion des marques, mais s’efforce au contraire à dresser une vision globale.

    2. Parce qu’il déploie une conception réellement originale de la marque

    L’ouvrage est émaillé de réflexions qui témoignent naturellement de l’expertise de l’auteur sur ce thème. Mais au-delà de celle-ci, il déploie également des pans de vision qui nous semblent particulièrement originaux avec au premier chef cette hypothèse forte et centrale consistant à considérer la marque comme étant un organisme vivant, évoluant et se modifiant comme tel. En effet, la vision la plus communément partagée assimile la marque à être le produit d’une volonté : celle de ses gestionnaires. Une marque serait ainsi un objet éminemment plastique, susceptible d’évoluer sans coup férir en fonction des options stratégiques ou tactiques de l’entreprise. L’auteur de l’ouvrage nous propose quant à lui une conception bien différente de celle-ci, où la marque – en tant que fait social – serait dotée d’une forme d’autonomie. Dixit Yves Krief « Sur le long terme, la marque échappe presque toujours aux intentions initiales, que ce soit dans ses échecs ou même ses succès. (…) Elle est un imaginaire partiellement contrôlé (…), une résultante complexe qui dépend simultanément de la volonté, mais aussi du hasard et de la nécessité ». A l’instar d’un organisme vivant, la marque aurait donc la capacité, de par son programme interne, à s’adapter à son environnement, en intégrant à la fois les règles du jeu propres à celui-ci, mais également une part inévitable et considérable de hasard. « Certaines marques parviennent à s’adapter, et d’autres pas, ce qui fait que l’on peut parler d’un « darwinisme » des marques.

    3. Parce qu’il intègre la révolution que constitue internet pour les marques.

    La formidable diffusion de l’usage d’internet, on le sait, a irrémédiablement bouleversé les règles du jeu pour les marques. Les consommateurs ont progressivement acquis un pouvoir inédit et considérable sur elles : celui de faire et de défaire leur réputation. Yves Krief résume cela en observant qu’internet a « cassé le monopole dont les marques disposaient vis à vis de leur propre discours ». Ignorer cette règle relèverait d’une forme d’autisme. Il se trouve qu’en assimilant la marque à un organisme vivant comme nous venons de l’évoquer, l’auteur dresse un cadre théorique et pratique qui semble parfaitement valide pour intégrer cette donne, où les marques n’ont pas d’autres choix que de s’adapter à leur environnement, le risque à ne pas le faire étant tout simplement de se condamner à mourir.

    4. Parce qu’il invite ainsi à une nouvelle forme de management des marques, et à une certaine modestie de ceux qui en ont la charge.

    L’invitation est la conséquence directe de cette hypothèse centrale de la marque évoluant à l’instar d’un organisme vivant. Accepter cela, c’est intégrer le fait que l’on ne peut pas faire tout ce que l’on veut d’une marque, que celle-ci évolue aussi en suivant des règles, mais également au gré du hasard. Dans un modèle organiciste nous dit Yves Krief, « la marque est émergente. On ne sait pas exactement ce qu’elle va être, car les rétroactions sont imprévisibles et généralisées ». Dans ce contexte, le rôle des brand managers ne consiste pas tant à imposer une trajectoire qui serait définie une fois pour toute, mais plutôt à piloter et même à accompagner la marque dans le sens des modifications qui s’imposent compte tenu des intentions stratégiques de l’entreprise, mais aussi des contraintes du marché et des aléas qui se présentent inévitablement. Il s’agit ainsi d’éviter ces deux extrêmes qui seraient d’un côté un positionnement trop flou, faisant courir le risque d’une dilution de la marque, et de l’autre une définition trop rigide de celui-ci, le risque étant là celui d’une sorte de momification. « La stratégie de marque n’a pas d’objectif, elle a une vision » nous dit Yves Krief.

    5. Parce qu’il justifie l’importance clé de la connaissance dans la gestion des marques

    Dès lors encore une fois que l’on adopte cette vision de la marque comme étant dotée d’une forme d’autonomie et capable d’évoluer en permanence (en fonction à la fois de son programme génétique et de son environnement), l’enjeu de la connaissance est capital. Quelle est l’identité profonde de la marque ? Vers quoi peut-elle aller ou bien au contraire quelles sont les impasses à éviter ? Quels sont les risques ? Quelles sont les opportunités ? Cet enjeu de la connaissance est d’autant plus important, nous dit Yves Krief, que la valeur d’une marque se mesure à la quantité et à la singularité des informations qui lui sont associées. « Une marque qui n’aurait que les valeurs de son marché sera faible ou inexistante » nous dit-il. Dit autrement, plus une marque est associée à des valeurs rares et improbables dans le champ concurrentiel qui est le sien, plus elle a de chances de s’imposer. Ce qui signifie donc en substance que la richesse, la fiabilité, et la réactivité du système d’information relatif à la marque (et à ses concurrents) constituent autant d’atouts décisifs pour construire la bonne vision, et savoir s’adapter à un environnement plein d’opportunités mais aussi de pièges. Ces considérations se retrouvent naturellement dans les approches développées par Sorgem, en particulier au travers des outils Fond(s) de Marque (pour la partie plus spécifiquement qualitative) et Force de Marque pour le volet quantitatif du diagnostic.

    6. Parce que le propos se nourrit de références intellectuelles fortes et contemporaines.

    Outre la figure de Spinoza, à la fois inattendue dans un ouvrage consacré à la marque et pourtant bien convaincante, certaines théories majeures d’aujourd’hui nourrissent en effet le contenu de ce livre, à la jonction notamment de la philosophie et de la biologie. C’est le cas des idées d’Henri Atlan, qui s’est intéressé au concept d’auto-organisation. Ou bien encore de celles d’Edgar Morin, qui s’est beaucoup penché sur les notions d’organisme complexes, et en particulier sur les phénomènes sociaux en tant qu’organismes. Il convient en outre d’évoquer le nom de François Jullien, dont les propos résument la philosophie toute chinoise à laquelle invite cet ouvrage : « Plutôt que de dresser un modèle qui serve de norme à son action, le sage Chinois est porté à concentrer son attention sur le cours des choses, tel qu’il se trouve engagé, pour en déceler la cohérence et profiter de leur évolution ».

    7. Parce qu’enfin il est particulièrement agréable à lire.

    Il n’est pas rare de trouver dans la littérature marketing des ouvrages dont l’appropriation demande un certain temps et pas mal d’efforts. Il se trouve qu’en plus des qualités que nous venons d’énoncer, cet ouvrage présente le mérite d’être court (100 pages), facile à lire, et émaillé de nombreux exemples et illustrations. C’est le parti-pris de cette belle collection dirigée par Henri Kaufman et des éditions Kawa, qui démontrent à l’envi que l’agrément de lecture ne s’oppose pas aux qualités de fond des ouvrages, mais ne fait au contraire que mieux les servir.

    Pour commander ce livre, voici le lien : Tout savoir sur L’Imaginaire de Marque. L’explorer, le mesurer, décider (Yves Krief)


     POUR ACTION 

    Commenter 

    • Echanger avec l'auteur de l'ouvrage : @ Yves Krief

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Livres, publications / Marque /
  35. Quand l’économie collaborative passe la seconde ! Interview de Diouldé Chartier-Beffa (DCap Research)

    20 nov. 2014

    Qu’on la dénomme économie collaborative ou économie du partage, voilà une réalité qui en l’espace de quelques années est sortie de la quasi marginalité pour être désormais omniprésente. Pour les entreprises, pour les institutions, et aussi et bien sûr pour les gens, en remettant en cause la frontière habituelle entre consommateurs et producteurs.

    Et si nous n’avions encore rien vu de la dynamique de cette économie ? Et s’il était en train de se produire une mutation d’une ampleur telle que les entreprises et les institutions n’avaient pas d’autre choix que de composer intelligemment avec elle ? C’est la vision que développe ici Diouldé Chartier Beffa (D’Cap Research), en réponse aux questions de MRnews.

    Market Research News : Vous faites partie de ceux qui suivent de près le phénomène de l’économie collaborative, qui apparaissait il y 3 ou 4 ans comme relativement embryonnaire et qui prend désormais une place considérable dans le fonctionnement de nos sociétés. Mais peut-être convient-il d’abord de bien définir ce dont il s’agit ?

    Diouldé Chartier-Beffa : L’économie collaborative se manifeste via différents modèles : la location ou la vente entre particuliers, notamment de produits d’occasion, des prestations de service comme le co-voiturage, le co-working, le troc,… Mais derrière tout cela, il y a bien un point commun : la fait qu’il s’agisse d’une économie de type P2P - de particulier à particulier – qui se passe des intermédiaires classiques, en étant fondée sur la mise en réseau d’individus qui peuvent alternativement être consommateurs et producteurs, en utilisant leurs propres infrastructures. C’est fondamentalement une économie de réseau.

    Or cette économie est en plein développement !

    C’est clair. On est passé en de l’utopie à la réalité. On le voit au travers d’un certain nombre de succès comme celui de leboncoin.fr (cf notre article à ce sujet), ou bien encore avec des Uber pour ce qui est du covoiturage, ou encore un AirBnB pour la location d’appartements ou de maisons. Ce ne sont bien sûr que des exemples particulièrement médiatiques et spectaculaires d’une réalité omniprésente, et qui touche aujourd’hui toutes les couches de la population et tous les secteurs. Les entreprises P2P donnent accès à un vrai marché à tout individu qui a quelque chose à proposer, de la coupe de cheveux à une chambre libre pour un week-end en passant par le transport d’un colis et mille autres choses encore. La mécanique fonctionne pour une large palette de motivations, qu’il s’agisse de la nécessité économique pour certains ou de l’opportunisme pour d’autres, ou bien encore de la mise en pratique d’une forme de rationalité.

    C’est cela le grand changement : le fait qu’aujourd’hui tout le monde ou presque peut-être à la fois consommateur et producteur.

    Ce qui est fondamentalement nouveau en effet, c’est le fait que cela puisse se faire dans des conditions de fluidité – et à une échelle - qui n’ont plus rien à voir avec ce qu’offrait le système antérieur. Le corollaire de cela, c’est que les gens ont accès à une autonomie extraordinaire. Ils peuvent se passer des entreprises et des institutions pour vivre au quotidien, et s’octroyer ainsi de nouvelles zones de liberté. On peut économiser de l’argent ou en gagner en faisant preuve de débrouillardise, ce qui n’est pas rien dans un contexte où le marché du travail « classique » est pour le moins défaillant.

    Ce qui est néanmoins assez nouveau, c’est que cette économie a pris une importance telle qu’elle gêne parfois certains acteurs de l’économie classique, ou même les institutions…

    Tout à fait. C’est très manifeste chez nos voisins allemands puisqu’après Berlin, c’est désormais tout le pays qui a décidé de bannir Uber. On a pu voir également une ville comme Barcelone infliger une amende à AirBnB. Et Paris est également en train de prendre des mesures pour que ce service ne déstabilise pas le marché du logement. Ce qui était perçu hier comme une utopie apparaît comme une réalité économique majeure, stimulée par la précarité. Et lorsque cela devient trop gênant, le réflexe est effectivement de brider ou même d’interdire.

    Quel pronostic peut-on donc raisonnablement faire quant aux perspectives de développement de cette économie collaborative ?

    Il y aura inévitablement des points de friction, mais je pense que le développement de cette économie collaborative ne peut que se poursuivre, ne serait-ce que du fait de sa formidable efficacité. Elle est efficace en effet à l’échelle collective, en proposant une forme de consommation plus frugale mais aussi plus rationnelle : un meilleur taux d’utilisation des logements, des véhicules…. Et elle est aussi formidablement efficace à l’échelle des individus, en leur offrant de la flexibilité, du lien, une solution à l’incertitude des temps mais aussi le sentiment de pouvoir mieux prendre son destin en main. Cela ne signifie pas pour autant que tout est rose…

    Parce que cela peut créer des dégâts économiques ?

    Oui. Le changement a un coût, traduction de l’effort nécessaire pour s’adapter.  En effet, certains acteurs perdent désormais des parts de marché considérables face à cette nouvelle concurrence, qui est d’autant plus difficile à combattre qu’elle se bat avec des armes nouvelles et en s’affranchissant d’un certain nombre de contraintes (juridiques ou fiscales en particulier). Les entreprises se retrouvent face à des concurrents qui sont leurs propres consommateurs, voire leurs salariés !

    Ces consommateurs ou ces salariés passent néanmoins par des structures, des entreprises…

    Oui, mais en règle générale, ces entreprises ne proposent pas en tant que tel des services ou des biens. Elles proposent de l’accès, le plus souvent sans avoir à investir beaucoup puisque ce sont les moyens des individus qui sont utilisés, leurs appartements ou leurs véhicules notamment.

    Mais je pense qu’il faut aussi voir une autre réalité : tous les individus ne sont pas à égalité de chances pour s’adapter à cette nouvelle économie, et pour profiter de l’accès qu’elle ouvre à des clients potentiels. C’est un écosystème qui exige des aptitudes particulières : bien sûr une certaine aisance avec internet, mais aussi celle de savoir séduire et se vendre quasiment en permanence. On en arrive d’ailleurs à une forme de titrisation des individus. Cela génère inévitablement de nouvelles formes d’exclusion.

    Si l’on se place du côté des institutions et des entreprises, comment peuvent-elles composer avec le développement de cette économie collaborative ?

    Les entreprises ont aujourd’hui deux réflexes dominants face à cela. Demander à l’état d’interdire (comme l’allemagne face à Uber) . Ou bien demander – encore à l’état – de déréguler leur activité pour pouvoir se battre face à une concurrence jugée déloyale. Mais cela conduit à une impasse, soit parce que cette dérégulation est inacceptable pour les salariés en poste, ou bien encore parce que cela reviendrait à couper les vivres à des individus que ces mêmes entreprises ont largement contribué à précariser, au fur et à mesure des licenciements de ces dix ou quinze dernières années…

    Une double impasse donc !

    Tout à fait. Mais il reste à mon sens une voie possible. La limite du mode de fonctionnement des entreprises dans leur grande majorité, c’est d’être en circuit fermé. Leur logique est de « faire » et de « faire payer », y compris ce qu’elles font moins bien que des individus mis en réseau. Il me semble que la réponse moderne consiste à restreindre le champ de leur production à leur savoir faire spécifique, à ce qui fait leur valeur ajoutée. Et pour le reste, elles ont intérêt à simplement donner accès, à être des « routeurs ».

    Elles doivent intégrer les individus dans leur mode de fonctionnement ?

    Oui. Ce que dit le développement de cette économie collaborative, c’est qu’il y a au fond une énergie considérable des individus, qui ne demande  qu’à être exploitée dès lors que cela fait sens pour eux. Cela est certainement plus facile à dire qu’à faire, mais reste donc aux entreprises à proposer du sens, et des schémas relationnels qui soient réellement bijectifs. Il s’agit bien d’un changement culturel majeur : comment cesse-t-on de regarder les individus uniquement sous l’angle du consommateur ? comment les intègre-t-on dans le schéma ? Cela appelle nécessairement les marques à se repenser comme marques plate-forme : des marques qui se définissent moins par ce qu’elles font que par ce qu’elles rendent possible. Elles devront toujours définir ce qu’elles sont, comment elles se manifestent. Elles devront être plus rigoureuses encore que par le passé sur ce qui fait leur valeur ajoutée. Mais je pense qu’elles seront de plus en confrontées à la nécessité de définir la posture relationnelle qu’elles proposent aux individus en leur reconnaissant leur statut d’acteurs et de partenaires.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Diouldé Chartier-Beffa

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Résultats d'études /
  36. Services clients : quelques idées reçues sur les pratiques et les attentes des français

    20 nov. 2014

    Concernant les Services Clients, certaines représentations sont relativement bien partagées, tant dans l’esprit du public qu'auprès des gestionnaires d’entreprises. Pour la faire courte, la satisfaction des français vis à vis de ceux-ci serait fort médiocre, ce qui renverrait à la fois à une mauvaise qualité de service mais aussi à des attentes souvent démesurées de la part du clients, le tout dans un contexte de digitalisation accélérée des relations.

    Et si l’on essayait d’apporter un petit peu d’objectivité là-dedans ? C’est en substance le propos du fondateur d’Ysthad, Christophe Ralle, qui a réalisé la deuxième vague d’un baromètre spécifiquement dédié aux Services Clients, et dont les résultats remettent en cause quelques idées reçues.

    Market Research News : Que ce soit dans l’esprit du grand public ou même des entreprises, l’image dominante veut que les français soient globalement peu satisfaits des Services Clients. Cette image est elle fondée ?

    Christophe Ralle : Les résultats de notre baromètre* nous invitent plutôt à relativiser les choses. Si l’on se concentre sur les six mois d’observation de l’étude (NDLR : de janvier à juin 2014), on note d’une part que 6 français sur 10 ont contacté au moins une fois un Service Clients. Et surtout que 69% des expériences sont jugées positivement, 23% des personnes qualifiant même leur expérience d’excellente, et 46% la jugeant bonne. Le qualificatif d’horrible ne s’applique qu’à 4% des expériences. Sur une échelle de 0 à 10, la note moyenne est de 7. Evidemment, on peut encore faire mieux, mais ces résultats n’ont rien de catastrophiques. Cette mauvaise image des Services Clients fait partie des grandes idées reçues qui circulent, la deuxième étant que la relation client serait devenue très majoritairement « digitale » en l’espace de quelques années seulement.

    Qu’en est-il précisément de cet aspect et de la réalité du poids du digital dans les relations « à distance » ?

    Les chiffres parlent là encore d’eux mêmes : les canaux traditionnels restent prédominants dans les moyens de contacts utilisés par les français. Toujours sur les 6 mois d’observation, 62% des français interrogés ont utilisé le téléphone et 76% considérent que ce média gardera toute son utilité dans le futur. Le téléphone reste donc le premier medium. L’e-mail vient ensuite, avec 53% d’utilisation. On voit d’ailleurs qu’il y a une forme de spécialisation des médias : le téléphone s’impose naturellement en cas d’urgence ; là ou l’e-mail est lui plus présent lorsque le sujet est complexe, ou bien lorsque la demande a un caractère de confidentialité. Les réseaux sociaux de type Facebook et Twitter, dont on parle pourtant beaucoup, n’occupent aujourd’hui qu’une faible part des échanges et ne sont utilisés que par 8% des français pour ce type de relation.

    On peut imaginer que les usages varient sensiblement selon les tranches d’âge, et que les médias les plus traditionnels restent très usités par les seniors…

    On observe en effet des aspérités selon cibles. Mais là encore, elles ne vont pas nécessairement dans le sens que l’on imagine le plus souvent. Notre étude montre en effet que les seniors utilisent majoritairement le mail pour contacter les Services Clients, alors que le téléphone est dominant pour les moins de 55 ans.

    La multi-canalité est régulièrement évoquée comme étant un enjeu majeur pour les entreprises. Les évolutions enregistrées entre les deux vagues de votre baromètre confirme-t-il une réelle montée en puissance de ce phénomène ?

    C’est sans doute le second point majeur que notre étude invite à relativiser. La réalité d’aujourd’hui est que la relation avec les Services Clients est majoritairement « mono-canal ». Et ce pour une très bonne raison : lorsqu’ils contactent un Service Clients, les clients aspirent légitimement à ne pas avoir à le refaire  ; et si jamais ils y sont poussés, en particulier si le premier contact n’a pas permis de répondre au problème, ils privilégient clairement le moyen utilisé en première instance. Ce constat s’applique particulièrement au cas du téléphone et de l’email , le premier cité étant le plus efficace puisque 59% des appels permettent de clore le sujet. C’est moins vrai en revanche pour le chat, le face à face ou le formulaire web : s’il y a besoin d’un nouveau contact, les gens utilisent alors un autre moyen.

    On entend souvent dire enfin que les français mettent la barre très haut quant à leurs attentes vis à vis des Services Clients, avec des exigences qui seraient donc quasi impossibles à satisfaire, en particulier sur des critères de réactivité. Quel est votre point de vue à ce sujet ?

    Il me semble que l’étude apporte un éclairage qui remet pas mal en cause cette représentation. Nous avons introduit quelques questions nous permettant d’objectiver ce que l’on peut considérer comme des temps d’attente seuils. S’appliquant au téléphone par exemple, quelle est la durée à ne pas dépasser du point de vue des clients entre le moment où ils lancent leur appel et celui où ils sont en contact avec un conseiller. Le délai seuil que nous  avons obtenu pour le téléphone est de 3 minutes et 39 secondes. Ce temps est rendu supportable grâce aux SVI qui « aident » les gens à patienter. Mais on voit en tout cas que cette attente n’a rien d’exagérée. Le temps d’attente est un peu plus court pour le chat, où l’on serait plutôt autour de 2 minutes.

    Et pour l’e-mail ? Quel serait le temps d’attente à ne pas dépasser ?

    Nous avons obtenu un temps seuil de 3 heures et 9 minutes en moyenne. C’est clairement un média qui a un « tempo » qui lui est propre, et qui est d’ailleurs assez comparable à celui qui s’applique aux réseaux sociaux, pour lesquels notre estimation du temps seuil est de 2 heures et 40 minutes.

    Moralité ? Ces indications laissent à entendre que cela n’a rien d’impossible de satisfaire le public concernant ces Services Clients...

    Absolument, c’est certainement le message de fond à retenir. Bien sûr, nos chiffres correspondent à des moyennes, et les entreprises doivent nécessairement composer avec certains clients dont les niveaux d’exigence sont extrêmes. Nous leur proposons bien sûr de pouvoir comparer leurs performances et les attentes de leurs clients par rapport aux entreprises de leur secteur d’activité. Mais on voit qu’il existe de sérieuses marges de manœuvre pour les entreprises. Celles-ci ont parfois un peu tendance soit à se mettre dans une obligation d’excellence intenable à moyen terme ; ou bien au contraire elles baissent les  bras en faisant l’hypothèse qu’il sera impossible de satisfaire des clients qui veulent « tout et tout de suite ». Au vu des résultats de cette étude, on voit au contraire qu’un juste équilibre semble tout à fait atteignable.

    Cliquez ici pour accéder à l'ensemble des résultats : Baromètre Service Clients Yshad

    * Notice méthodologique : cette étude a été réalisée du 11 au 21 juillet 2014 auprès d’un échantillon national représentatif de 1677 internautes âgés de 18 ans et plus, construit selon la méthode des quotas (sexe, âge, CSP du chef de famille) avec une stratification par région, taille et catégorie d’agglomération.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Christophe Ralle

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Satisfaction / Fidélité / Résultats d'études /
  37. Les baby boomers et l’aspiration au « bien vieillir » - Résultats d’étude

    19 nov. 2014

    Parmi les cibles naturellement privilégiées par les entreprises figurent en bonne place les Baby Boomers. Pour dire les choses telles qu’elles sont, les représentants de cette génération (et plus largement les 50/70 ans) ont tout pour plaire. Ils sont nombreux. Plutôt aisés. Et ils sont les enfants naturels de la société de consommation !

    Une aspiration majeure les caractérise : celle du « bien vieillir » ? Mais qu’est ce que cela veut dire plus précisément ? Quelles sont les aspirations qui se cachent derrière ce terme ?  Les français et les anglais diffèrent-ils sur la façon de l’envisager ? Ce sont précisément les questions clés traitées par une étude Future Thinking – Seniosphère, dont nous vous proposons de découvrir ici les principaux résultats avec l’interview de Sophie Schmitt.

    Market Research News : La préoccupation de « Bien vieillir » est à l’évidence très présente dans l’esprit de la génération des Baby-Boomers. Mais est-ce que l’allongement de la durée de vie d’une part, et le spectre de la crise d’autre part ne changent pas la donne ?

    Sophie Schmitt : L’allongement de la durée de vie est bien sûr un phénomène clé. Pour résumer, cela signifie que lorsqu’on a 50 ans, on se retrouve à devoir inventer 33 ans de vie ! C’est une évolution qui ne fait précisément que renforcer cette aspiration au « bien vieillir », qui est omniprésente dans la tête des baby-boomers, et plus encore chez les Français (qui sont 95% à considérer que cela est important pour eux) que chez nos voisins Anglais (auprès de qui cette proportion est quand même de 88%). Mais on observe cependant que cette aspiration est déjà bien présente sur des générations plus jeunes, celles des 18-49 ans, et ce tout aussi bien en France qu’en Angleterre.

    Il faut s’y prendre jeune pour bien vieillir ?

    Oui, absolument. C’est particulièrement vrai pour les Anglais, qui ont un peu tendance à considérer que tout se joue avant 40 ans, voire même avant 30 ans. Alors que les Français considèrent eux qu’il convient plutôt de s’en inquiéter aux alentours des 40 ans, voire même des 50 ans.

    Qu’est ce qui explique cette différence selon vous ?

    Nous n’avons pas les mêmes systèmes de retraite, et cela joue certainement un rôle important. En Angleterre, les individus sont naturellement incités à anticiper sur leur situation économique future. Plus en tout cas que les Français, qui peuvent beaucoup plus compter sur notre système par répartition. Les français sont donc plus enclins à faire abstraction du problème tant qu’ils sont encore jeunes.

    Mais concrètement, cela veut dire quoi « bien vieillir » dans l’esprit des gens ?

    Cela recouvre un spectre d’aspirations de plus en plus large. Lorsque nous avons lancé cet observatoire, en 2008, la préoccupation de l’alimentation était clairement prédominante. Cela est sans doute à mettre en lien avec les grandes campagnes de communication lancées à cette époque, avec le thème des « 5 fruits et légumes par jour ». Puis, dans un premier temps, se sont rajoutés des aspirations plus orientées vers des aspects de socialisation, qui se retrouvent dans notre étude sur l’importance accordée à des items tels que « voir ses enfants et petits-enfants » ou bien « rester en contact avec des amis, des proches » (cf. graphique). Encore un peu plus tard, le spectre s’est encore élargi avec la montée en puissance des thèmes relatifs aux activités et aux loisirs. Sortir, lire, faire du sport, bouger, voilà autant d’items auxquels les répondants accordent beaucoup d’importance. En 2014 enfin, on voit une dernière dimension progresser de manière assez fulgurante, celle du « continuer à travailler », qui est considérée comme une caractéristique importante pour 60% des français de la tranche des 50-70 ans.

    Sur ce point que vous venez d’évoquer, on voit une différence très nette entre les Français et les Anglais… Comment pourrait-on résumer les principales différences entre nous et nos voisins sur la façon de « bien vieillir » ?

    Les baby-boomers de nos deux pays associent fortement « bien vieillir » et « être en bonne santé. Mais en France, il est aussi très important d’être « bien dans sa tête », là où les anglais sont relativement plus préoccupés de « continuer à pouvoir faire ce qu’ils aiment ». Nous sommes plus tournés vers nous-mêmes que ne le sont les anglais. Nous allons plus particulièrement valoriser le fait de continuer à travailler, mais aussi de se faire plaisir en mangeant ! Nous sommes aussi hédonistes, c’est évident. A la question de savoir comment ils utiliseraient une somme de 300 euros si on leur offrait, les réponses des français se sont beaucoup portées sur des services de massage ou des séances de spa. Alors que nos voisins vont accorder une importance relativement plus forte à des critères tels que « être actif au service des autres ».

    Quelle est la place des médicaments dans ce « bien vieillir » ? 

    Les baby-boomers ont une relation assez complexe avec les médicaments. Nous avons pu voir dans les précédentes études que le recours aux médicaments et aux consultations n’émergeait fortement qu’une fois passée la barrière des 70 ans. Avant d’avoir atteint cet âge, les personnes souhaitent en général aborder le problème autrement, dans une logique dominante de prévention. C’est ce qui explique notamment le succès des produits ou des composants de type anti-cholesterol, omega 3, et plus largement des alicaments.

    On considère le plus souvent que les seniors ne sont pas très intéressés par les innovations. Voyez-vous des évolutions marquantes de ce point de vue-là ?

    C’est une idée qu’il faut remettre en cause. Nous avons affaire à une nouvelle génération de seniors, à des gens dont le quotidien a été transformé par les nouvelles technologies, et ce tout au long de leur vie. Ils ont donc des attentes fortes au contraire vis à vis de celles-ci, et sont nombreux à éprouver même du plaisir à essayer de nouveaux produits. Ils sont par exemple de plus en plus nombreux à utiliser les réseaux sociaux, un senior sur cinq étant inscrit au moins sur l’un d’eux.

    Voit-on par ailleurs d’autres usages internet en forte progression auprès de ces seniors ?

    Les progressions sont manifestes sur tous les usages en lien avec la mobilité, le voyage. Cela concerne l’échange ou la location d’appartements – ou de voitures - entre particuliers, le covoiturage (qui est très populaire en Angleterre). Internet est un outil particulièrement intéressant pour eux dans une logique d’échange inter-générationnel. Les baby-boomers étant particulièrement bien équipés, en étant très majoritairement propriétaires d’un logement ou de voitures, ils sont souvent prêts à partager. Cela peut parfois aider à arrondir un peu les retraites, mais cela permet aussi de maintenir ou de tisser des liens avec des générations plus jeunes.

    Nota : L’étude a été réalisée auprès de 1600 personnes âgées de 18 à 70 ans(800 en France et 800 en Angleterre) en Juin 2014 par Future Thinking France sur le panel Respondi. Les données ont été traitées par MGS.


     POUR ACTION 

    Commenter 

    • Contacts de l'étude : @ Stéphane Marder (Futur Thinking France)    @ Sophie Schmitt (Seniosphère)

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Résultats d'études /
  38. Satisfaction Clients : quelle est donc la meilleure façon de déterminer l’importance des critères ? Interview de Christian Barbaray (INIT)

    10 nov. 2014

    Mesurer la satisfaction des clients sur les différentes composantes de leur expérience est une chose. Néanmoins, pour que l’entreprise définisse les allocations de ressources les plus pertinentes, encore faut-il aller un cran plus loin et avoir une idée de l’importance de ces composantes, ou dit autrement de la force de l’effet de levier qu’elles représentent vis à vis de la satisfaction globale.

    Mais quelles sont donc les différentes options pour déterminer l’importance des critères de satisfaction ? Quelles sont celles qu’il est préférable d’éviter et celles qu’il faut au contraire privilégier ? Christian Barbaray, président d’INIT, nous donne son éclairage et son point de vue d’expert sur ce thème.

     

    Market Research News - Dès lors qu’il est question d’étudier la satisfaction des clients, tous les spécialistes s’accordent sur la nécessité de mesurer, outre la satisfaction des clients sur les différents critères qui entrent en ligne de compte, l’importance de ces critères. Mais les avis divergent sensiblement sur la question du comment. Quelle est votre vision à ce sujet ?

    Christian Barbaray : Au final, tous les gens qui ont en effet un peu d’expérience sur cette problématique visent à croiser ces deux éléments que sont les niveaux de satisfaction sur les différents critères à prendre en compte avec l’importance de ceux-ci. Ceci étant, dans le cadre des séminaires que j’anime sur ce sujet, je suis toujours assez surpris de voir qu’il y a une proportion non négligeable d’entreprises pour lesquelles cette analyse de l’importance des critères n’est pas faite. Je dirais que cela semble le cas dans un quart à un tiers des entreprises. Et lorsque cette analyse est faite, les gens ne sont pas si souvent convaincus de s’y prendre de la meilleure manière…

    Dit autrement, ils ne sont pas satisfaits de leurs études de satisfaction !

    Absolument. La limite qui est le plus souvent mise en avant étant que cette notion d’importance est assez peu compréhensible. Dans certains cas, cette importance ne varie quasiment jamais. Ou bien au contraire la volatilité est telle que cela soulève des doutes légitimes sur la pertinence de cette mesure d’importance.

    Si l’importance des critères ne varie pas dans le temps, cela signifie-t-il nécessairement qu’il y a un problème de méthode ?

    Si l’entreprise ne fait rien pour améliorer la satisfaction des clients, il est possible en effet que l’importance des critères soit assez stable. Sinon, il est tout à fait naturel que ces niveaux d’importance évoluent. Quand les clients sont satisfaits sur un élément donné, leurs attentes se reportent logiquement vers un autre aspect de la relation ou du service.

    Est-il possible de dresser un petit « panorama » des différentes approches possibles en la matière ?

    C’est ce que j’ai essayé de faire en tout cas avec cette petite représentation (cf. chart), qui permet de cartographier les cheminements les plus utilisés, le dénominateur commun étant de parvenir in fine à croiser la satisfaction des clients sur les différents critères et l’importance de ceux-ci dans la satisfaction globale qui en résulte.

     

    Si je lis bien, il y a donc 3 grandes « écoles » dans la façon - dans un premier temps - de mesurer l’importance des critères…

    Tout à fait.  Soit on est dans le mode du « déclaré », ce qui signifie en clair que l’on demande aux clients interviewés d’évaluer l’importance qu’ils accordent aux différents critères, avec une échelle spécifique donc. Ou bien on calcule cette importance. A partir du moment où les gens expriment leur satisfaction globale, que l’on peut considérer comme étant un effet (un Y), et leur satisfaction sur les différentes composantes, que l’on peut prendre comme des causes possibles (des X), on peut mathématiquement définir les paramètres les plus pertinents de l’équation. Mais il y a là encore deux écoles mathématiques distinctes. Soit on considère que les X sont indépendants, et on va donc chercher à mesurer l’importance des différents critères toutes choses étant égales par ailleurs. Ou bien au contraire, on part de l’idée que les variables sont liées entre elles, et l’on a recours à des analyses statistiques ayant vocation à mettre en évidence ces liens et les dynamiques qui en résultent.

    En se basant sur ces grands types de mesure ou de calcul, on aboutit donc à différents types de représentations et d’analyses. L’une d’elles consiste à croiser l’importance déclarée et l’importance calculée…

    En effet. C’est la fameuse matrice de Jean-François Boss, qui est un expert incontournable de l’analyse statistique associée à cette problématique. En réalité, cette approche est peu utilisée, notamment parce qu’elle nécessite des questionnaires plus longs, ce qui a des répercussions sur le budget de l’étude. Mais sur le principe, ce croisement est extrêmement pertinent, puisqu’il permet d’identifier et de distinguer ce sur quoi il est important d’agir dans une démarche qualité par exemple, mais aussi d’identifier ce à quoi les gens sont sensibles dans une perspective de communication et d’argumentation.

    En pratique, c’est la notion d’importance calculée « directe » qui est la plus fréquemment utilisée ?

    Tout à fait. Mais sur la base de ce calcul, il est possible de générer différentes analyses. Une des idées les plus importantes consiste à distinguer les effets d’une progression ou au contraire d’une dégradation de la satisfaction. Sur certains critères, il est effet payant pour l’entreprise de faire progresser la satisfaction, cela contribuera à faire progresser la satisfaction globale des clients. Cela a un sens de viser à faire mieux, ou même d’atteindre l’excellence. Mais pour d’autres critères, il ne faut pas chercher à faire mieux puisque cela ne ferait pas progresser la satisfaction globale ; il convient plutôt de veiller à ne surtout pas reculer. C’est l’analyse de type bonus / malus, qui est inspirée par les travaux de Sylvie Llosa, et qui se prête à une représentation matricielle. On fait ainsi apparaître 4 grands types de critères. D’une part les critères « clés », qui peuvent impacter fortement la satisfaction globale à la fois à la hausse et à la baisse. Par ailleurs, il y aura des critères « plus », pour lesquels l’impact se joue uniquement du côté du positif, et à contrario des critères « basiques ». Pour ces derniers, il ne faut pas chercher à faire mieux, mais il faut néanmoins éviter d’être « mauvais ». Et enfin, on a les critères secondaires, ceux pour lesquels une évolution à la hausse ou à la baisse n’aura que très peu d’effets sur la satisfaction globale.

    Dans votre schéma, vous faites une place à une approche s’appuyant sur une logique de segmentation. Qu’est-ce que cela recouvre ?

    Avec ce principe de typologie, l’idée est de dépasser une des limites des approches classiques, qui est que l’on « moyennise » les choses. On fait comme si tous les clients avaient la même sensibilité vis à vis des différents critères. Or, on sait très bien que c’est faux, ou disons que c’est une vue de l’esprit. La sensibilité au prix ou à tel ou tel paramètre de qualité du service est évidemment variable selon les clients. On va donc segmenter la population en fonction de son pattern d’attentes, et c’est cette segmentation qui va être au cœur du plan d’action de l’entreprise.

    Lorsqu’on utilise des techniques d’analyse de type PLS (Partial Least Square), dans quel mode de calcul se situe-t-on ? S’agit-il d’un calcul direct ou bien indirect ?

    A mon sens, cette technique est principalement utilisée pour un calcul de type direct. Mais il est probable néanmoins que les promoteurs de celle-ci, les chercheurs proches de Claes Fornell et de l’université du Michigan défendent un autre point de vue. La notion de calcul dynamique est pour moi complètement associée à la technique des réseaux Bayesiens.

    Avec ce mode de calcul, vous l’avez évoqué précédemment, on essaie d’identifier des chaines causales…

    Oui. C’est à dire que lorsqu’on analyse un critère, on tient compte de son impact direct sur la satisfaction globale, mais aussi de son effet indirect. Si je fais progresser la satisfaction des clients sur un critère donné, cela va aussi avoir une incidence positive sur la perception des autres critères. On va donc essayer d’identifier les logiques d’action intéressantes à mettre en œuvre, les dynamiques d’ensemble les plus vertueuses pour agir sur la satisfaction globale des clients. En termes de représentation, on peut utiliser la notion de « réseau ». On va dire que c’est le mode de représentation le plus classique. La limite est que cela peut sembler complexe, notamment pour des non-spécialistes des études, ou pour un comité de direction. C’est ce qui nous a poussés à élaborer des représentations plus synthétiques, sous la forme d’engrenages, qui ont une grande vertu pédagogique.

    Mais quelle est pour vous la meilleure approche, celle qui est la plus puissante ?

    Ma conviction est qu’il n’y a pas de méthode universelle. Je crois beaucoup à la nécessité d’adapter les approches en fonction des contextes, et notamment en fonction des niveaux de maturité des entreprises sur ces sujets. Pour les entreprises les plus matures, je pense que l’approche bayésienne est particulièrement intéressante. Mais elle peut être perçue comme trop complexe par les autres. Les approches de type « bonus / malus » avec la matrice de LLossa me semblent être un bon compromis, l’éclairage étant à la fois puissant et raisonnablement complexe.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Christian Barbaray

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie / Satisfaction / Fidélité / Les 10 articles les + lus /
  39. Les SMS : un nouveau canal à part entière pour les études marketing ? Interview de Mustapha Smail, directeur-fondateur de Le Terrain

    16 oct. 2014

    Et si les SMS, en dépit de leurs limites, ouvraient des perspectives étonnantes pour les études marketing ? Et s’ils s’invitaient à la table des principaux outils médias utilisés pour le recueil des données, en complément du téléphone, du web et du face à face ?

    C’est la vision que nous fait partager ici Mustapha Smail, directeur-fondateur de Le Terrain, qui a annoncé il y a quelques semaines le lancement d’une nouvelle plateforme d'enquêtes conçue pour administrer des questionnaires par SMS. 

    Market Research News : Quand on évoque le SMS dans le domaine des études, le premier réflexe est de penser aux limites de ce media, avec notamment le fameux seuil du nombre de caractères. Et pourtant dites-vous, le SMS présente d’énormes avantages. Lesquels mettriez-vous en avant en priorité ?

    Mustapha Smail - Le Terrain : Avant même de parler « études », je pense qu’il est nécessaire de donner quelques chiffres qui témoignent de la puissance étonnante de ce média dans notre société. Compte tenu du taux d’équipement des individus en téléphone mobile et du taux d’usage des SMS, 95% environ de la population française est susceptible d’être contactée par ce medium. De fait, le SMS est le deuxième usage naturel du mobile juste derrière la voix, toutes catégories d’âge confondues, avec 250 SMS envoyés en moyenne par chaque utilisateur, très loin devant la consultation du web. Cela est lié à différents facteurs, dont le fait que son cout à l’usage est extrêmement faible quand il n’est pas nul, et aussi à la compatibilité de ce média avec la totalité des téléphones mobiles. Il y a aussi un phénomène d’antériorité, qui a favorisé son appropriation. 95% de couverture potentielle, c’est un chiffre qui mérite pour le moins considération !

    Mais vous citez aussi un autre chiffre, qui parle tout de suite aux professionnels des études : le SMS est lu par son destinataire dans 99% des cas !

    Absolument. Et c’est bien en effet la combinaison de ces deux chiffres, 95% d’individus susceptibles de recevoir et 99% de taux d’ouverture qui résume la puissance de ce medium pour un usage études. Si l’on rajoute à cela le fait que les gens répondent vite, quasi instantanément, le téléphone mobile étant le seul medium que les gens ont tout le temps sur eux,  on peut même se demandé si c’est le téléphone qui est en veille ou l’utilisateur ! on a à l’arrivée le medium le plus réactif qui soit !

    Mais comment en fait-on un véritable outil d’étude ?

    C’est tout le sens de l’investissement que nous avons réalisé, avec la création d’une plateforme technique spécifiquement conçue pour administrer les questionnaires par SMS, que nous avons baptisée Dynamics Survey. Dans un mode relativement « artisanal », il est bien sûr possible d’envoyer une question à des équipés mobiles, sur la base d’un fichier. Il est également possible, mais c’est tout à fait autre chose, d’envoyer par SMS une invitation à participer à une étude en mode web par exemple. Cette plateforme que nous avons lancée permet d’aller infiniment plus loin puisqu’il s’agit là d’un véritable outil de gestion d’enquête, très comparable à ce que nous pouvons avoir avec un système CATI. Il est ainsi possible de générer une séquence de questions, en personnalisant celles-ci sur la base des informations contenues dans le fichier. Et il est parfaitement possible de gérer l’arborescence du questionnaire, là encore à l’identique de ce qui peut être fait par téléphone en CATI ou via le web. On peut tester le dispositif en s’inscrivant sur sms.leterrain.fr.

    Comment les gens répondent-ils ? Et est-ce qu’il n’y a pas des difficultés particulières d’interprétation des réponses ?

    En fait, selon la nature des questions, soit l’on propose aux interviewés de rédiger une réponse « en clair », par oui ou par non par exemple. Ou bien de renvoyer le code (un numéro ou une lettre) correspondant à la modalité qui leur correspond dans la liste proposée. Sachant que beaucoup d’études se font avec des notes, comme les études de satisfaction ou d’image par exemple. L’interprétation et la codification des notes se fait donc en temps réel. Si le libellé de réponse de la personne interrogée n’est pas « lisible », une question est générée pour l’inviter à reformuler celle-ci. Dans les premières études que nous avons réalisées, les verbatim se révèlent être parfaitement exploitables, avec 89 caractères en moyenne pour les questions ouvertes. Les réponses sont très riches et plus bien écrite, sans doute du fait de l’habitude qu’ont les gens, via les SMS, d’émettre des messages concis et précis.

    Les taux de réponse se situent à quel niveau ?

    Il est encore un peu tôt pour donner des chiffres sur la base des pilotes que nous avons réalisés. Nos premières observations montrent qu’ils sont dix à vingt fois supérieurs à ce que l’on obtient en Cawi, sur des études de type Grand Public (hors panel). Avec la technologie SMS, on a une parfaite maitrise des choses, on sait que le message a bien été reçu par la personne ciblée qui dans plus de 90% des cas n’a qu’un seule numéro de mobile, à la différence de l’option de l’email. On peut atteindre un niveau de représentativité excellent, bien supérieur à celui qu’autorise le web, puisque nous savons générer une base de n° de téléphones mobile représentatifs de la population française.

    Il reste néanmoins ce seuil des fameux 160 caractères, qui doit constituer une limite importante…

    160 caractères, c’est en effet la norme internationale. En réalité, on peut enlacer les SMS pour aller jusqu’à 600 caractères par question. Et en fait, une grande majorité des questions que l’on pose par téléphone passent en 600 caractères, même si cela peut demander un petit travail de ré-écriture. La vraie limite à mon sens - mais chaque système de recueil a le sien - repose sur le nombre de questions par séquence d’interrogation, que nous limitons aujourd’hui à 5. Avec 5 questions et un maximum de  600 caractères pour chacune d’elles, il est évident que l’on ne peut pas traiter tous les sujets, mais le champ des possibles est néanmoins très important. D’autant plus que ce système permet de réaliser les études dans un temps extrêmement court !

    Pourquoi 5 questions ?

    C’est la limite que nous nous sommes donnés pour l’instant, en tenant compte du fait que les gens répondent en mobilité, et du temps nécessaire pour eux pour la réception du message, la réflexion et la composition des messages de réponse.

    A partir du moment où je dispose d’un fichier et d’un questionnaire, combien de temps faut-il pour démarrer l’étude et obtenir les résultats ?

    On peut mettre en place une étude en deux heures, avec la génération du questionnaire, la préparation des fichiers de contacts et la diffusion de l’invitation. Le taux de réception du message est quasiment de 100%, et les temps de réponse sont très courts. Et les résultats sont donc immédiats, avec un traitement des données en temps réel. On a donc une solution qui est hors norme en termes de rapidité.

    L’étude se fait bien sûr nécessairement sur fichier ?

    Oui, tout à fait. Mais avec différents cas de figures. On peut travailler sur un fichier de personnes « connues » et qualifiées par différentes variables (Sexe, âge, ...). Les personnes interrogées peuvent être prévenues (pré-recrutées), en amont d’un événement auxquelles elles participent par exemple. Ou pas. Mais par ailleurs, il est tout à fait possible de générer un fichier en composant aléatoirement des numéros de téléphone, avec ainsi la possibilité de disposer d’une excellente représentativité de la population.

    Quelles sont les études qui se prêtent le plus à l’usage des SMS et de cette nouvelle offre ?

    A l’évidence, cette approche est idéale pour tous les types d’études dits « à chaud ». Suite à une expérience client comme une visite en point de vente par exemple. Ou bien encore suite à la diffusion d’un film publicitaire. On recueille des perceptions extrêmement spontanées, sincères, sur une expérience toute fraiche. C’est bien sûr le terrain naturel pour ce type de protocole, même si en réalité, compte tenu des avantages que nous avons évoqués mais aussi des couts extrêmement compétitifs de ce média, je crois que le champ des usages possibles reste encore largement à définir. Le système fonctionne parfaitement pour des mesures de type NPS (Net Promoter Score) et plus largement pour des études de satisfaction intégrant peu de questions. Le dispositif se prête également très bien à la mesure du taux de pénétration d’un produit ou d’un usage, avec éventuellement la recherche de cibles rares. Ou bien encore et tout simplement pour évaluer la puissance et le degré de partage d’un insight…

    En termes de coût précisément, quels sont les ordres de grandeur ?

    Nous avons lancé une première série d’offres avec des budgets « standards » qui vont de 1000 à 3000 €. Ces offres rentrent tout à fait dans le cadre que nous avons évoqué, pour des études de mesure de satisfaction à chaud ou de type NPS, ou bien encore pour de la recherche de cibles rares. Mais encore une fois, je pense réellement que l’outil se prête à un usage bien plus large encore que ce que nous avons entrevus jusqu’ici. Je suis persuadé que les commanditaires d’études auront sans doute bien plus d’imagination que nous à ce sujet !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Mustapha Smail

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie /
  40. Et si l’on sortait le trade-off des oubliettes de la recherche marketing ? Interview d’Alexis Bonis Charancle, DG associé de B3 TSI

    16 oct. 2014

    Alors que la technique des trade-off (ou de l’analyse conjointe en version française) a longtemps été considérée comme parmi les plus intéressantes pour la recherche marketing, celle-ci semble néanmoins être tombée quelque peu en désuétude, en particulier auprès des plus jeunes praticiens des études.

    Et s’il y avait un réel intérêt à réintégrer cette technique dans la boite à outils des équipes Etudes, compte tenu à la fois de la puissance potentielle de ses éclairages et de l’opportunité qu’offre la généralisation des recueils via le web ? C’est la conviction que développe ici Alexis Bonis Charancle, DG associé de B3 TSI, dans le cadre de cette interview. 

    Market Research News - Thierry Semblat : Le trade-off faisait partie des techniques « reines » des études il y a quinze ou vingt ans. Elle n’a peut-être pas complètement disparu des écrans radars des équipes Etudes, mais il semble quand même qu’elle soit de moins en moins utilisée. Partagez-vous ce constat, et si oui qu’est-ce qui explique ce phénomène selon vous ?

    Alexis Bonis Charancle (B3 TSI) : Oui, je partage tout à fait ce constat d’un net recul de l’usage des trade-off.  Je crois que cela tient à un ensemble de facteurs. Sur le fond, cette méthode est puissante, mais elle implique certaines contraintes si on l’applique rigoureusement. Pour élaborer des plans d’expérience valides, il est notamment conseillé de n’introduire qu’un nombre limité de critères, 5 ou 6 dans l’idéal. Cela demande donc en amont une phase de réflexion qu’il n’est pas toujours facile de mettre en œuvre. On peut bien sûr, avec la méthode ACA, travailler sur un grand nombre de caractéristiques, mais il faut alors utiliser des gros échantillons, ce qui peut générer des coûts importants. Et l’on court le risque de se retrouver face à des résultats difficiles à interpréter. Par ailleurs, l’usage des trade-off demande parfois la mise au point de maquettes, de prototypes. Et cela représente bien sûr aussi un coût. Enfin, je rajouterai que d’autres méthodes « avancées » ont été mises en avant ces dernières années, grâce notamment à la percée du Data Mining. Je pense par exemple aux réseaux bayesiens et neuronaux. Cela a sans doute contribué à faire de l’ombre à la technique du trade-off.

    Est-ce que le développement du recueil par téléphone - il y a déjà quelques années - n’a pas aussi contribué à ce moindre usage des trade-off ?

    Vous avez tout à fait raison. Cela a certainement eu un impact important. Mais la roue tourne ! Et il est évident que la très forte diffusion du web dans la collecte des données ouvre des perspectives à nouveau très intéressantes pour le trade-off !

    En quelques mots et à destination de ceux qui ne sont pas très familiers avec cette technique, comment en définiriez-vous le principe ?

    La mécanique d’interrogation est très simple. Elle consiste à présenter à un échantillon d’individus un ensemble de propositions, des produits par exemple, qui se définissent par un nombre relativement limité de caractéristiques : par exemple pour un produit alimentaire une marque, un packaging, une recette, et un prix. Et on demande aux individus d’exprimer comment se hiérarchisent leurs préférences vis à vis de ces propositions, en les classant. On ne demande pas aux individus de se prononcer « directement » sur l’importance qu’ils accordent aux différentes caractéristiques, au prix par exemple. Mais grâce au plan d’expérience, qui permet de présenter différents niveaux de prix, et par l’analyse statistique qui est effectuée, on va pouvoir mesurer l’incidence du prix sur la préférence et le taux d’achat. On peut définir le produit idéal, c’est-à-dire la combinaison d’attributs qui maximise la préférence, donc potentiellement la part de marché.  On peut aussi chercher à optimiser le taux de marge si l’on sait associer un coût aux différentes caractéristiques produit. En résumé, on observe la façon dont les gens font des compromis, le prix étant souvent la variable d’ajustement majeure. Le trade off permet aussi, si l’on dispose d’un échantillon suffisamment important, de repérer différents segments de population, homogènes dans leurs critères de choix.

    La technique est dans un sens très souple, puisque cette notion de combinaisons d’attributs peut s’appliquer à une immense variété de propositions. Mais où est la limite ? Dans le nombre de caractéristiques associées aux propositions ?

    C’est en effet un point extrêmement sensible. On est souvent tenté d’introduire un grand nombre de caractéristiques, ce qui est problématique. Certaines sociétés proposent des techniques qui permettent soit-disant de s’affranchir au moins en partie de cette limite, mais cela amène à des découpages, pour ne pas dire à des « saucissonnages » (avec force usage de scenario dits « incomplets ») qui ne nous semblent pas souhaitables. La méthode d’origine, avec des scenarios complets, nous semble devoir être respectée pour obtenir des résultats fiables.

    En présentant les propositions comme étant des combinaisons de caractéristiques, on met en quelque sorte celles-ci à égalité d’information pour le consommateur. Alors que dans la « vraie vie », on sait que le consommateur fait l’impasse sur certaines. Y compris sur le prix : je ne regarde pas toujours le prix de la bouteille d’huile que j’achète en faisant mes courses… Est-ce que l’on ne tombe pas ainsi, avec le trade off, dans le piège de sur-estimer la rationalité des choix des consommateurs ?

    C’est pour cela que l’on utilise des maquettes, c’est-à-dire des produits tels qu’ils pourraient être dans un linéaire ou des services tels qu’ils pourraient être décrits sur un dépliant. La plupart des plans d’expérience sont composés de 16 scenario. Donc cela demande de concevoir 16 maquettes, ce qui peut être complexe et onéreux. En tous cas, ça l’était et ça l’est toujours pour les trade off administrés en face à face. Maintenant, avec les possibilités qu’offrent le web, c’est beaucoup plus simple.

    Quelles sont les problématiques des entreprises pour lesquelles il vous semblerait particulièrement intéressant de ré-utiliser cette technique du trade-off ?

    En réalité, je crois qu’elles sont très nombreuses. On peut bien sûr penser aux tests d’offre. Plutôt que de tester systématiquement toutes les nouvelles pistes d’offre, un trade-off permet de se faire une bonne idée de ce à quoi les consommateurs sont sensibles. Cela permet ainsi de rationaliser les études de produits ou de services. Cette technique est aussi fondamentalement intéressante pour mesurer la valeur et donc le prix des choses. Elle donne par exemple une idée tout à fait valable du différentiel prix cohérent entre le prix d’un produit de marque et son équivalent en marque distributeur. La réponse est claire quant à l’écart de prix à ne pas dépasser. On est pleinement dans la logique du compromis, ce qui est la traduction exacte du mot anglais trade off.  Dans un domaine que nous connaissons bien, celui de la santé, cette technique s’est aussi avérée très efficace pour évaluer le compromis que font les individus entre l’efficacité d’un médicament ou d’un traitement, et les éléments de risque associés à celui-ci.

    Vous avez évoqué précédemment les problématiques de segmentation…

    C’est juste. Avec un échantillon suffisamment conséquent, l’éclairage d’un trade off peut être des plus intéressants pour répondre à ce type de besoin, en ce sens qu’il permet de passer outre les limites classiques du déclaratif. On identifie ainsi la réelle proportion et les caractéristiques des individus hyper-sensibles au prix, qui sont souvent moins nombreux qu’on ne peut le penser à priori. J’évoquerai enfin les problématiques de « cost-reduction ». Toujours en vertu de cette mécanique dont nous avons parlée, le trade-off permet d’identifier des caractéristiques ou des ingrédients qui coûtent chers à l’entreprise, et que celle-ci peut donc éliminer ou dégrader sans préjudice pour sa part de marché. Ce sont néanmoins des dispositifs qui demandent une certaine expérience, car il faut surveiller de près la puissance du test. Au global, cette technique n’est bien sûr pas une recette universelle, mais elle mérite en tout cas dans bien des cas d’être considérée et examinée comme une véritable option, susceptible d’apporter des éclairages extrêmement puissants !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Alexis Bonis Charancle

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie /
  41. Un consommateur français devenu (structurellement) déflationniste ? Interview de Xavier Charpentier (FreeThinking)

    15 oct. 2014

    Et si, à force de voir la crise perdurer, le consommateur français était devenu déflationniste ? Et si les changements conjoncturels de comportements provoqués par les problèmes de pouvoir d’achat s’ancraient durablement dans notre société ? Et si au-delà des comportements, les valeurs elles-mêmes des consommateurs étaient en train de se transformer ?

    Ce sont les hypothèses que nous fait partager Xavier Charpentier, co-fondateur avec Véronique Langlois de FreeThinking, à l’issue d’une nouvelle auscultation d’une population qui leur tient particulièrement à cœur, celle des « Français moyens »

    Market Research News : Vous tâtez régulièrement le pouls de la classe moyenne française. Sur la base de vos dernières observations, vous faites un constat qui peut paraître très fort, celui d’un consommateur devenu déflationniste, ce qui est un terme qui peut paraître particulièrement fort. En quoi le consommateur est-il en train de profondément changer selon vous ?

    Xavier Charpentier (FreeThinking) : Nous disons en effet qu’il est vraisemblablement en train de se produire une rupture, ce qui est rare comme chacun sait. Jusqu’ici, les consommateurs se comportaient comme si la crise était conjoncturelle, comme si cela s’inscrivait dans un cycle qui allait nécessairement s’inverser un jour ou l’autre. Dit autrement, il y avait la perspective d’un retour à plus ou moins brève échéance à une situation économique plus favorable. Beaucoup d’indices nous laissent à dire aujourd’hui qu’une nouvelle perspective s’est installée dans la tête des gens. Désormais, la représentation dominante chez les Français est que ces difficultés sont structurelles et non conjoncturelles. Les nouveaux comportements générés par la crise deviennent durables. Mais tout cela s’accompagne également de la progression de nouvelles valeurs chez nos concitoyens. C’est sans doute le plus inquiétant.

    Ces comportements, quels sont-ils ? C’est le fait de chercher systématiquement les prix les plus bas, l’achat d’occasion ?

    En fait, bien au-delà de la recherche du moins-disant prix, il s’agit en effet d’un ensemble assez large de comportements correspondant à de nouvelles façons de consommer. Ou de ne pas consommer ! Le report d’achat est en effet fréquent ; l’achat d’occasion a très fortement progressé comme en témoigne le succès de leboncoin.fr., mais pas seulement. Mais il faut aussi évoquer bien sûr toutes ces nouvelles pratiques de partage, que ce soit pour les appartements ou pour les véhicules par exemple, et qui sont en train de s’étendre à d’autres catégories de produits ou de services. Ces comportements sont déjà là depuis quelques années et continuent à se développer. Mais ce qui est le plus frappant et le plus inquiétant, c’est que cela s’accompagne d’un changement significatif dans l’attitude des gens. 

    Ce sont les nouvelles valeurs que vous évoquiez précédemment ?

    Tout à fait. Alors que l’adoption de ces comportements se faisait plutôt jusqu’ici sous le régime de la contrainte, ceux-ci sont désormais investis de valeurs positives. Ils étaient en quelque sorte subis, acceptés avec au moins un petit peu de souffrance et en étant perçus donc comme un mode d’adaptation passager à une phase difficile. Aujourd’hui, ces comportements apparaissent de plus en plus comme un choix délibéré. Il y a une culture de la déflation qui est en train de s’installer. Nos consommateurs sont en train de passer de « on achète et on  jette » à une nouvelle posture qui serait plus du type « on utilise, on garde, et si le besoin n’est plus là, on revend ». C’est une tendance manifeste en tout cas, avec peut être l’esquisse d’un rêve : celui d’une société où l’on va pouvoir tout recycler. En effet donc, de nouvelles valeurs s’installent, au premier rang desquelles une forme de frugalité, et un principe de consommation plus respectueuse de l’environnement et de l’humanité. Non pas la « frugalité heureuse » des militants alternatifs d’hier, mais la frugalité raisonnée de ceux qui ont appris à apprivoiser la crise.

    Si les gens retrouvaient des perspectives plus favorables quant à leur pouvoir d’achat, ils conserveraient ces comportements qui ont été suscités par la crise ?

    Bien malin qui peut l’affirmer, mais nous pensons que c’est une hypothèse très plausible en effet. Il y a en quelque sorte un apprentissage de la crise. Le plus redoutable dans ce type de situations, c’est l’effet de cliquet : ce qui fait que le retour à la situation antérieure est difficile.

    Le terme « déflationniste » est très souvent associée à une autre notion : celle de spirale. Avons nous donc affaire à une spirale déflationniste ?

    Oui. Parce qu’en effet, les marques et les acteurs de la distribution jouent un jeu qui n’est absolument pas neutre pour les consommateurs. Pour s’adapter à cette nouvelle situation et à cette « perpétuation » de la crise, les acteurs de l’offre ont tendance à faire évoluer les prix dans des termes qui font que les consommateurs ne s’y retrouvent plus. Avec la pratique de soldes assez systématiques et de valses assez constantes des prix, ils ont le sentiment d’une confusion organisée par les marques et les distributeurs, pour faire en sorte que eux consommateurs ne puissent pas s’y retrouver. Cela provoque très fréquemment des reports d’achat, la préoccupation majeure des consommateurs étant de pouvoir acheter au prix juste. Par ailleurs, la notion d’obsolescence programmée par les marques est de plus en plus présente dans les esprits. Avec la diffusion du concept de gratuité, tout cela concourt à abimer la valeur du Prix. Et au final, comme cette année, on se retrouve avec des prix en baisse de 2,5% dans la grande distribution, ce qui est le type même de la fausse bonne nouvelle, à moyen terme.

    Pensez-vous qu’il puisse s’établir une ligne de fracture entre les marques qui vont tenir compte de ce changement de donne, et celles qui auront tendance à considérer ces évolutions comme conjoncturelles ?

    C’est clair. Montrer au consommateur qu’on veut combattre l’asymétrie d’information inacceptable aujourd’hui – moi, la Marque, je sais tout, et toi, consommateur, tu ne sais rien de la façon dont le prix est constitué – est devenu vital, même si on sait que ce n’est pas le Graal et que proposer un prix compétitif reste indispensable. Rétablir une relation plus équilibrée avec lui, aussi. Les marques qui sauront le faire sortiront gagnantes de la période. Et ce n’est pas des bons sentiments, c’est la nouvelle loi du business ! 


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Xavier Charpentier

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Résultats d'études /
  42. La Customer expérience : nouvelle marotte ou vraie révolution pour les entreprises ? Interview de Philippe Neveu, fondateur de Different Factory

    6 oct. 2014

    L’expérience client (ou la Customer Expérience) est décidément un concept très à la mode (cf notre dossier du mois consacré à ce thème). Mais il n’est pas si évident, au travers des propos ou des formules agitées par les uns ou les autres, de savoir s’il s’agit là de la dernière marotte des hommes de l’art, ou bien si cela correspond à une évolution significative du marketing.

    Quelle est donc la vraie nouveauté apportée par ce concept ? En quoi et pourquoi est-il si important ? Ce sont les questions que nous avons posées à Philippe Neveu, fondateur d’une jeune société spécialisée sur les enjeux de parcours et d’expérience clients (Different Factory) qui vient de publier un livre blanc reposant sur les témoignages d’une vingtaine d’entreprises.

    Market Research News - Thierry Semblat : On entend décidément beaucoup parler d’Expérience Client. Ou même et surtout de Customer Experience. Est-ce qu’il n’y a pas un effet de langage à associer le terme de révolution à ce concept ? Quelle est la vraie nouveauté intéressante à appréhender selon-vous sous ce terme ?

    Philippe Neveu - Different Factory : Le terme expérience clients est en effet rapidement devenu un « mot buzz », ce qui rend sa compréhension très hétérogène. L’expérience client est perçue par certains comme un concept théorique, quand elle n’est pas confondue avec le CRM et  les nouvelles possibilités du marketing automation … Il faut comprendre que la révolution ne tient pas simplement au fait qu’il y a eu une mutation phénoménale de l’accès à l’information. Les clients sont devenus non seulement beaucoup plus exigeants mais aussi plus « agiles ». Et surtout, ils ne veulent plus être passifs et se voir imposer une logique qui n’est pas la leur. Ils sont devenus les acteurs du film ! Ils choisissent leurs modes d’interactions, et sont investis d’un pouvoir infiniment plus important pour faire ou défaire la réputation des marques.

    Le rapport marques–clients s’est en quelque sorte inversé ?

    Absolument. Les marques doivent naturellement le prendre en compte. Les anglo-saxons ont pris de l’avance sur cette nouvelle logique. On le voit très bien avec l’exemple d’UBER, dont le modèle bouleverse la logique de service dans les transports, avec une rupture radicale sur les parcours clients proposés et au final sur l’expérience de service vécue. Nous sommes entrés dans l’ère de la proactivité dans les interactions clients. L’expérience d’usage est devenue une clef de voute de la différenciation. Une étude menée sur 5 ans par le cabinet Watermark Consulting montre que les leaders de l’expérience clients aux USA génèrent 3 fois plus de valeur que les 500 sociétés cotées du Standard & Poor’s. Dans le top de ces sociétés, on retrouve Amazon, Southways Airlines… L’expérience client, c’est donc du concret, pas de la théorie !

    Ce terme d’Expérience Client ou de Customer Experience est dans toutes les bouches… Mais qu’en est-il de la réalité dans les pratiques des entreprises ?

    On ne peut que faire le constat d’une très forte hétérogénéité des situations. Dans des secteurs comme la banque, les assurances, les telecoms, le transport aérien, ou même en partie pour le retail, on a compris que la compétition amenait à une guerre des prix. Ce sont souvent les pure players qui ont poussé à remettre en cause les anciennes logiques. Des postes de Directeur de l’expérience clients sont récemment apparus. Dans ces entreprises, on engage des démarches de « design d’expérience clients » ou de « parcours clients mémorables ». Dans d’autres cas, c’est la nécessité de plus de « cross-canalité » des parcours clients qui amènent à parler d’expérience clients. Mais je suis frappé par le fait qu’il y a un réel phénomène d’accélération, beaucoup d’entreprises y compris les plus franco-françaises d’entre elles manifestant clairement la volonté de ne plus en rester au stade de l’incantation, mais de passer à l’acte.

    Est-ce qu’il y a un déclencheur évident derrière cela ?

    Les plus avertis ont compris que la recommandation, venant des clients est devenu un driver extrêmement puissant. Cela oblige à beaucoup plus d’excellence et de transversalité. HSBC France, par exemple, affirme que plus de 50% de ses nouveaux clients viennent de la recommandation d’autres clients. La proactivité sur l’ensemble de ses parcours clients en cross-canal, est au cœur de ces  nouveaux enjeux. Je précise bien sûr qu’il s’agit des parcours vus, non pas comme un outil de d’orchestration marketing, mais tel que perçus,  vécus et jugés par les « consom-acteurs ».

    Précisément, comment passe-t-on à l’acte ? Comment définiriez-vous en quelques mots les étapes fondamentales pour travailler efficacement l’expérience client ?

    Le point de départ porte sur la compréhension des parcours clients vus des consommateurs.  Certaines entreprises préfèrent d’ailleurs parler de « design de parcours clients » que d’expérience clients. La démarche est nécessairement volontariste et pas due au hasard. Quel est le mode d’action de ses propres clients, comment agissent-ils, comment choisissent-ils, où sont les ruptures dans le parcours, quel sont leurs points de déceptivité, quels sont les « pain points », comment surprendre positivement le client ? Quelles opportunités avons nous de faire différemment ? Ceci pour chaque étape du parcours clients. Des clients neutres sont des clients qui demain seront susceptibles de partir à la concurrence. Cela suppose de vouloir comprendre le parcours vécu par ses clients dans toutes les étapes de sa proposition notamment aux différents points de contact. Plus particulièrement aux moments clefs. Agir sur son expérience clients c’est travailler sur ses déficits de pédagogie, sur le niveau d’effort cognitif ou physique demandé au client, sur le manque de fluidité et de continuité d’un canal à l’autre etc.

    Vous auriez un exemple pour illustrer cela ?

    Je peux prendre une de mes expériences récentes. Je devais voyager sur une compagnie aérienne et le vol a été annulé la veille du départ. J’ai été prévenu par un message sur mon téléphone. Et donc ? La logique, vue du client, aurait été de me proposer les vols suivants disponibles. Et de pouvoir le faire selon mon canal de préférence, de m’indiquer quel était le différentiel de prix etc. Au lieu de cela, j’ai du chercher l’information moi-même, trouver le numéro de téléphone, et au final j’ai perdu 1h30. Ma mauvaise expérience fait que cette compagnie a perdu ma confiance.

    Elle ne s’est à aucun moment mise à votre place…

    Tout à fait. Alors que précisément, toute la démarche d’optimisation des parcours clients - a fortiori avec des comportements naturellement en cross-canal - suppose de se mettre à la place du client, en intégrant donc sa logique, ses objectifs, ce qu’il fera à la prochaine étape, et pourquoi. Et non pas de chercher à le mettre dans une nasse. Au final, la démarche d’immersion dans ses parcours clients va permettre à l’entreprise de déterminer de manière collaborative où, quand et comment créer davantage d’attachement et d’engagement de ses clients. La résultante est la définition de parcours plus fluides, plus proactifs, plus interactifs, plus engageants, plus addictifs, plus innovants, pour les clients. Et là on pourra parler de parcours « mémorables ».

    Dans le cadre de l’élaboration de votre livre blanc, vous avez rencontré les responsables marketing ou expérience clients d’une vingtaine d’entreprises. Quelles sont les démarches ou les pratiques qui vous semblent particulièrement distinctives des entreprises les plus volontaristes en matière d’expérience client ?

    Le cœur de la transformation consiste dans la visualisation des parcours clients et la co-construction transversale de parcours que l’on va réinventer. La visualisation de ces parcours permet d’avoir un effet catalyseur et de rendre la démarche d’expérience clients concrète, tangible et beaucoup plus transformatrice. Je précise que la visualisation ne consiste pas à orchestrer des campagnes. La vraie finalité consiste à « fabriquer » de la différence, en se posant donc la question de savoir où et comment se singulariser de ce que proposent les concurrents. Par ailleurs les entreprises les plus en avance ont un nouveau modèle assez radical. Ce qui prime pour elles, ce n’est pas de satisfaire les clients mais de dépasser les attentes clients, avec comme objectif très clair de générer de la recommandation. Pour cela elles ont mis en oeuvre des ateliers collaboratifs impliquant des équipes inter-disciplinaires, parfois même les opérationnels au contact des clients, plus rarement les clients eux même - en phase de validation. Dans ces cas-là, la visualisation amène à identifier comment enchanter le client,  à quels moments du parcours. Avec des actes et une proactivité plus forte.

    Vous auriez des exemples qu'il serait possible de partager ?

    Oui. On peut citer celui de Direct Energie. Cette entreprise a travaillé l’ensemble de ses parcours clients par cible, a conçu des parcours spécifiques, en fonction des cibles et des moments clefs, avec une graduation de l’interaction fonction du risque de churn anticipé de ses clients. Ses parcours clients sont partagés et affichés sur les murs de l’entreprise … HSBC pratique également cette visualisation via le « Customer Journey Mapping ». Transdev dans le secteur des transports fait ce travail également, en impliquant le Comité de Direction dans les pays en amont du processus, et de maniére volontariste l’ensemble des équipes en transversal à des fins d’appropriation, et de construction collaborative.

    Comment l’enjeu de la satisfaction des clients s’articule avec ces notions d’expérience et de parcours clients ?

    C’est un enjeu qui est naturellement présent, mais selon des degrés assez différents selon les entreprises. Pour certaines, le parcours client est une démarche plus centrée sur l’optimisation des leviers de performance marketing de l’entreprise comme les taux d’acquisition ou de transformation, le panier moyen, le taux de rétention... Pour d’autres c’est un outil d’analyse et de pilotage en vue d’accroitre non seulement la satisfaction, mais aussi pour maximiser la capacité de la marque à se différencier sur son marché. On ne pense pas que « campagnes » mais « engagement et différenciation » clients. Les deux démarches ne sont pas complètement étanches, mais en pratique, il y a quand même des dominantes assez facilement repérables.

    In fine, l’objectif reste de maximiser la fidélité des clients dans des conditions économiques pertinentes pour l’entreprise ….

    Oui, bien sûr. La fidélité est la finalité la plus évidente ; mais on observe néanmoins des approches assez différenciées entre les entreprises. La question de la différenciation est plus souvent présente : lorsqu’elle l’est, la perspective est alors de concevoir et de générer une expérience clients à la fois unique et mémorable. Et il peut y avoir aussi un autre enjeu majeur intégré à la démarche, qui est celui de l’innovation. L’analyse des parcours clients est alors un prisme d’analyse particulièrement fécond pour concevoir de nouveaux services.

    Quels conseils donneriez-vous enfin à des équipes « études » présentes chez les annonceurs, pour qu’elles puissent jouer efficacement leur rôle autour de ces enjeux ? 

    Elles ont un rôle majeur à jouer en devenant plus conseil que prestataire interne. En particulier dans la bonne compréhension et l’intégration de la logique d’action des clients et non clients, dans la mise en perspective de l’effort client sur un parcours, et aussi dans le pilotage de la voix du client.  Ce n’est pas qu’un concept. L’enjeu est la capacité créer un hub d’information clients permettant à la fois d’avoir différents outils pour détecter, analyser, réagir, piloter, mais aussi de savoir  donner un sens de lecture, comprendre le pourquoi, afin de passer un cap vers le bel océan de la proactivité clients.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Philippe Neveu

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Satisfaction / Fidélité / Les 10 articles les + lus /
  43. « Etre leader ne nous autorise ni la béatitude ni l'arrogance » - Interview exclusive de Dominique Levy, DG d’Ipsos France.

    15 sept. 2014

    Etre leader sans nécessairement se croire « arrivé », dans le contexte d’un marché qui oblige à la vigilance et dont la mutation en cours soulève de sacrés défis, voici la vision que nous fait partager Dominique Levy, DG d’Ipsos France, dans le cadre d’une grande interview exclusive accordée à Market Research News. Au premier rang de ces défis, repenser un modèle économique vieillissant face aux besoins nouveaux des clients, dans un cadre concurrentiel en pleine redéfinition. Mais aussi réussir le chantier culturel, humain et managérial qui va de pair avec elle.

    Market Research News : Il est établi qu’Ipsos occupe aujourd’hui la place de leader du marché des études en France, même si l’application de la loi Sarbanes-Oxley* génère une certaine opacité sur les comptes de votre concurrent TNS Sofres. Qu’est-ce cela fait, qu’est-ce que cela change pour Ipsos, d’être passé ainsi de son statut historique de challenger à cette position de leader ?

    Dominique Levy : Je suis tentée de commencer par évoquer ce que cela n’est pas… En l’occurrence, ce n’est ni le motif à afficher une satisfaction béate, pour reprendre les termes de Yannick (Carriou), ni une fin en soi. Nous sommes leader en effet, mais gardons les pieds sur terre, ce leadership est très relatif. D’abord parce qu’il s’applique spécifiquement au marché français, alors que notre activité est mondiale. Ensuite parce que nous pesons moins de 15% du marché, ce qui ne fait pas de nous un leader absolu et dominant, loin s’en faut. Et enfin et surtout, je crois que cela interroge la définition même de notre marché. De quoi sommes-nous leader au fond ? Du marché des études par enquête ? Oui. Mais le fait est que notre activité déborde de ce cadre, et j’espère bien qu’elle le fera de plus en plus. Notre position de leader est en partie la conséquence d’une diversification de nos activités, et du fait que nous regardons le marché autrement. Notre enjeu, collectif, est moins celui du leadership à l’intérieur du marché Etudes, tel qu’on a pu le définir au cours des dernières années, que celui de l’évolution-même de ce marché.

    Pas de danse du scalp en tout cas pour célébrer la victoire ! C’est un non-événement, le fait de devenir leader ?

    Non, pas de danse du scalp autour de la dépouille du vaincu. D’abord parce qu’il n’y a pas de vaincu, il n’y a pas de dépouille, et certainement pas celle de TNS Sofres ! Et nous n’avons  pas un seul concurrent, mais peut-être des centaines, sur des domaines d’activités qui deviennent de plus en plus hétérogènes. Cela ne veut pas dire pour autant que cela soit un non-événement. C’est un symbole important pour les équipes en interne, une forme de reconnaissance de ce qui est fait dans cette entreprise depuis de nombreuses années, et du fait que cela porte ses fruits. C’est un motif de satisfaction bien sûr, mais je pense qu’il n’y a pas une seule personne au sein d’Ipsos qui soit dans l’état d’esprit de se dire « ça y est, on est arrivé » ! Enfin, je ne crois pas que cela corresponde à une préoccupation de la part de nos clients.

    C’est un peu une posture à la Avis ? Toujours challenger, et donc toujours plus ?

    Peut-être. Cela fait partie en effet de l’ADN de cette entreprise et de ses dirigeants, de toujours regarder devant et de toujours raisonner sur les axes de croissance possibles : Ipsos ne sera jamais de ceux qui se reposent sur leurs lauriers. Mais je crois que cela correspond aussi plus profondément à la nature des gens des études. C’est un métier de questionnement, d’interrogation. Ipsos porte bien sûr aussi cela dans sa génétique. Et encore une fois, nous sommes dans un environnement et un contexte qui pose beaucoup de questions. Ce métier est en train de muter en quelques années plus qu’il ne l’a sans doute jamais fait au cours de son histoire. Cela pose naturellement beaucoup de questions, aussi bien à moyen-long terme qu’au quotidien.

    Cette mutation va de pair avec la diversification des activités que vous évoquiez précédemment. J’imagine qu’il ne vous est pas possible de communiquer des chiffres précis, mais pouvez-vous nous indiquer la nature de ces activités que vous développez et qui  « sortent du cadre » classique des études ?

    Il est clair que tout ce qui relève du Feedback Management a pris une place importante au sein d’Ipsos. On est là typiquement sur une activité où l’acquisition d’informations perd du poids au profit de ce que l’on fait autour de cela, dans le management de la performance de l’entreprise. Nous pouvons également évoquer les activités de media-planning, dans le périmètre d’Ipsos Media CT. Il s’agit là de champs qui viennent en complément de nos activités traditionnelles, qui sont déjà elles-mêmes tellement variées que nous nous retrouvons face à une grande diversité de concurrents. Bien sûr sur les études qualitatives, nos concurrents sont des instituts d’études comme TNS Sofres, Sorgem ou WSA. Mais lorsque nous intervenons sur des problématiques de CRM ou bien d’engagement, les concurrents que nous rencontrons ne font pas partie de l’univers des études à proprement parler.

    Je crois avoir entendu dire que l’année 2014 était l’année de tous les dangers. Qu’est-ce qui vous fait dire cela ?

    Nous sommes engagés dans une phase d’accélération brutale du changement. A la fois dans la demande de nos clients, mais aussi bien sûr dans nos activités et nos propositions. Et donc dans notre organisation. Dans ce contexte et comme en 2013, nous pensons qu’il sera très difficile de générer de la croissance, la diversité des dynamiques entre nos différentes d’activités n’ayant jamais été aussi forte.

    Quelles sont donc les activités qui progressent ? Et celles qui connaissent le plus de difficultés ?

    Toutes les activités autour du corporate, de la réputation des entreprises, de l’analyse des tendances et du Customer Relationship se portent très bien. Notre quali réalise également une bonne année, de même que notre activité dans le domaine de la publicité, qui est en train de se déplacer vers la communication et l’accompagnement du digital. Nous éprouvons à contrario plus de difficultés sur ce qui relève des média et du téléphone, des marchés en décroissance, mais aussi sur nos activités ayant trait à l’innovation.

    Cela fait pourtant partie des domaines pour lesquels les orientations des entreprises sont particulièrement favorables. C’est ce que montre notamment notre baromètre. Comment expliquez-vous cette difficulté ?

    Les entreprises remettent en cause leurs processus et cette façon classique de travailler l’innovation, avec ces différentes étapes de la génération d’une idée, de sa transformation en concepts, puis en prototypes… Nous sommes historiquement forts sur les phases de finalisation, avec les tests de potentiel en particulier. Or, la demande se déplace sur les phases plus amont, où apparaissent des méthodes alternatives aux options classiques du Market Research. Vient s’ajouter à cela un déplacement des centres de décisions des entreprises en dehors de la France, ce qui constitue une couche de complexité supplémentaire. Mais c’est un sujet sur lequel nous entendons bien être force de proposition, comme nous l’avons montré avec notre conférence « Innovation : sortez du moule»

    Une des grandes forces historiques d’Ipsos est d’avoir su générer des normes, que ce soit dans le domaine de la communication publicitaire ou de l’innovation. Cette composante a-t-elle perdu de son importance ?

    La notion de norme est toujours essentielle pour évaluer des publicités, dans le domaine de la relation client ou de l’engagement des salariés. Mais il est vrai que nous vivons une phase un peu particulière. C’est particulièrement vrai dans le domaine de l’innovation, où l’idée s’impose - et nous l’encourageons - qu’il faut prendre plus de risques, sortir des sentiers battus, ce qui n’est bien sûr pas très compatible avec le fait de s’en tenir à des normes. Mais en réalité, je crois que ce constat s’applique à beaucoup de domaines. La demande des entreprises est aujourd’hui particulièrement duelle. Le besoin de se rassurer est toujours là, ce qui passe par les études et par les normes. Mais il y aussi une aspiration à aller vers des schémas de réflexion plus intuitifs, qui laissent plus de place aux convictions. Cette évolution n’est pas sans lien avec une forme de mutation du modèle économique des études, que vous devez souvent entendre dans la bouche des dirigeants d’instituts.

    Oui, bien sûr. Mais comment définiriez-vous les termes de ce changement de modèle économique, selon vous et pour Ipsos ?

    Pour le dire très simplement, le métier des études a pris pour habitude de cacher le service dans la production. On a longtemps laissé croire aux clients qu’ils nous achetaient du terrain, de la donnée, et que le service n’était que la manière de le leur apporter. Le fait est qu’aujourd’hui et de plus en plus, ils ont besoin du service. Ils achètent de l’intelligence, de l’impact, de l’influence. On nous demande de moins en moins de présenter des résultats d’études, mais plutôt des points de vue. Bien sûr, ceux-ci s’appuient sur des études. Mais ce changement n’est pas mince. Nous devons lutter contre cette tendance que pourrait avoir le marché d’indexer la valeur de notre prestation sur la valeur de la collecte. Et c’est un changement pour nos équipes. De la même manière que nos clients doivent faire un saut en matière d’innovation, nous devons changer nos façons de faire et rendre plus perceptible le bénéfice que nos clients ont à travailler avec nos équipes et à avoir accès à un ensemble d’outils de compréhension différents de ceux de nos concurrents.

    J’imagine néanmoins que du côté de la demande, cette évolution n’est pas du tout homogène…

    Absolument, et cette hétérogénéité est en effet une source de complexité additionnelle. Il y a toujours des clients qui souhaitent disposer de piles de charts, avec tous les chiffres, toutes les ventilations possibles et imaginables. Ils sont attachés au quoi et au comment. Et d’autres clients demandent des formes de restitution tout autres, sans les chiffres et même parfois sans les mots, uniquement avec des images. Cette différence dans la nature des demandes n’est pas une question de taille d’entreprise. Cela correspond à un sentiment d’urgence qui est plus ou moins présent, à des aspects de culture ou d’organisation. Et c’est bien sûr une question de personnes. Tout cela fait que nous sommes aujourd’hui dans une sorte d’entre deux, mais notre certitude néanmoins est que cette transition va se faire, dans un contexte où de nouveaux acteurs viennent sur la scène pour parler du consommateur, ceux qui ont la maitrise de la data sur les clients. Cela pose de nombreuses questions, à commencer par celle de savoir comment réorganiser l’acquisition et le traitement de l’information.

    Une autre obsession semble également assez présente au sein des instituts d’études, celle de retrouver un contact plus direct avec les décideurs des entreprises, qui se serait perdu au fil du temps. La partagez-vous ?

    Je pense que cela relève d’une forme de fantasme. Le fait est que nous nous retrouvons là aussi face à une forte hétérogénéité des situations. Dans certaines entreprises, le contact avec les dirigeants est quasi systématique. Dans d’autres, on nous demande avant tout de préparer des éléments qui seront présentés par d’autres. A nouveau, cela est affaire de structure et de culture d’entreprise. Mais cela pose aussi la question de savoir quel est le profil de compétences des interlocuteurs que nous proposons face à nos clients. Je pense qu’il faut dire les choses. Quand des équipes ont été recrutées et formées pour être des experts du comment, elles n’ont pas nécessairement et spontanément toutes les qualités nécessaires pour être les interlocuteurs des décideurs. Il faut sans doute faire un sort à cette idée assez française de l’homme ou de la femme providentiel(le), qui serait à la fois super méthodologue, super data visualiseur, super speaker, super stratège ; et en outre super manager ! Il faut donc admettre - et faire admettre à nos équipes - que la chaine de valeur ne peut pas être tenue de bout en bout par un même individu. En tout cas pas tout le temps et pas sur des sujets complexes.

    Dans la culture des instituts d’études, les notions de porteur (de projet) et de rapporteur (de business) - qui se confondent le plus souvent - sont extrêmement importantes. Aller dans le sens d’une autre organisation, plus horizontale, ce ne doit pas être simple…

    Il s’agit bien sûr d’un chantier managérial important, mais qui est essentiel dans cette transformation des instituts d’études, de leur prestation et, en amont, de leur promesse. Derrière cela, il y a une autre transformation : celle de la compréhension qu’ont nos équipes de notre modèle de valeur et de son évolution. Cela correspond à un travail de fond que nous avons engagé depuis déjà quelque temps. Mais cela va aussi de pair avec un net élargissement de la palette de compétences qu’il nous faut intégrer. Dans des activités en pleine croissance, c’est relativement simple ; on va chercher ces compétences en externe qui viennent compléter celles déjà présentes dans l’entreprise. Il s’agit bien sûr d’intégrer ces nouvelles compétences, mais aussi de raisonner en termes de mobilité interne, en privilégiant la fluidité. Tout cela correspond en tout cas à un cheminement qui peut être relativement long. Cela n’aurait aucun sens d’aller sur une estrade pour dire en substance « regardez le nouvel Ipsos comme il a changé ! ». Nous devons faire en sorte que ce soit nos clients qui perçoivent ces changements, dans la qualité de nos propositions et de nos prestations. Au-delà du chantier intellectuel qu’implique cette transformation du métier, il s’agit aussi et surtout d’un défi managérial.

    Ce processus de transformation que vous évoquez s’impose à la plupart des sociétés d’études en France. Quelle devrait-être selon vous la spécificité d’Ipsos dans la façon de gérer celui-ci et plus largement cette mutation des études ?

    Je connais relativement bien quelques sociétés concurrentes, et la façon dont elles fonctionnent. Je crois réellement que la grande singularité d’Ipsos repose sur sa relation au risque, à l’empowerment, avec cette capacité que nous avons à déléguer, donner de la responsabilité, favoriser l’initiative individuelle. Cela correspond profondément à ce qu’ont insufflé Jean-Marc (Lech) et Didier (Truchot) : Ipsos est une entreprise entrepreneuriale. Pour prendre l’exemple des patrons de pays, ils sont chez nous de vrais patrons, et non des cadres dirigeants. Il s’ajoute à cela une composante un peu « organique » : au sein d’Ipsos, on n’a pas toujours la certitude d’atteindre toutes les ambitions, mais « on fait » ! On y croit en se disant que « l’intendance suivra », en étant ainsi très guidé par l’objectif. Et puis, Ipsos, c’est avant tout des individus, un ensemble de personnalités bien marquées ; la structure n’est pas forcément ce qu’il y a de plus visible de l’extérieur, mais il y a en revanche énormément de vitalité.

    « Bienvenue dans la vraie vie » est votre nouvelle signature, depuis déjà quelques mois. Comment faut-il entendre cette invitation ? Serions-nous donc dans une forme « d’irréalité » ou bien de « désincarnation » dont il s’agirait de se déprendre ?

    Notre signature précédente, « Nobody’s unpredictable », nous paraissait un peu moins adaptée au monde d’aujourd’hui…  Ce « bienvenue » est le résultat d’un processus de création collective, avec ce constat que le vrai fond de légitimité de toutes nos activités, c’est de porter la parole des citoyens et des clients. Oui, c’est vrai, un certain nombre de mécanismes font que nous pouvons tous, décideurs compris, nous retrouver un peu « hors sol » par rapport à la réalité et à la « vraie vie ». Quand on vend des rouges à lèvre, ce n’est pas qu’une vue de l’esprit que de se représenter que la cliente peut être une caissière, avec une journée de 7 heures passée à la caisse d’un supermarché, des trajets d’1h15 pour aller ou venir de la maison, et en prime 3 heures de travaux ménagers ! On n’est pas dans l’insight éthéré lorsqu’on intègre cela. A contrario, on sort de la réalité lorsqu’on se met à penser que les gens ont un cerveau digital d’un côté et un autre bout de cerveau pour la vie physique. Nous disons que notre métier est celui-là : regarder le monde tel qu’il est, en utilisant tous les moyens qui s’y prêtent et pas seulement les études « traditionnelles », et essayer de le raconter de façon intelligible et concrète. Tout cela pour contribuer à amener de la réalité dans les décisions et pour que celles-ci aient, à leur tour, un impact sur la réalité.

    Si l’on essaye d’imaginer ce que ce sera le marché des études dans  les 5 ou même 10 ans à venir, quelles sont les évidences qui vous semblent s’imposer ?

    Honnêtement, je ne sais pas qui sait répondre à cela. L’évidence est que notre activité est en train de changer plus qu’elle ne l’a jamais fait dans le passé. Mais je ne suis pas certaine que ce que l’on appelle le marché des études ait encore un sens dans dix ans. Le mouvement que nous avons à faire, c’est de devenir agnostique. De ne pas être des gens qui ont foi en LA méthode, mais qui utilisons différentes méthodes en mobilisant les bonnes compétences. Vous me direz que cela peut constituer un enjeu quant à l’unité de l’entreprise ; mais je crois que notre nouvelle signature peut précisément beaucoup apporter dans ce sens. Nous sommes là pour essayer de rendre intelligible un monde complexe, fragmenté, changeant. En d’autres termes : apporter du sens, de la simplicité et de la sécurité. Et le tout rapidement. On pourrait résumer notre positionnement comme ça : « Real time, real life ». A partir du moment où l’on partage le fait que notre légitimité est là, la ligne est relativement claire. Elle nous évite de nous perdre, tout en ouvrant une multitude de possibilités sur la façon d’y parvenir et les profils de ceux qui nous y aideront.

    Une dernière question enfin, plus personnelle celle-ci. Quelle trace aimeriez-vous laisser en tant que directrice générale d’Ipsos ?

    Et bien ! Quelle question ! Honnêtement, je n’ai aucune envie de laisser une trace. Je ne veux pas ma statue dans le hall d’entrée ! Dans le métier que nous faisons, nous sommes dans le présent et dans l’avenir proche. Nous avançons pas à pas, mois après mois. Et au-delà, on ne sait rien. Je ne sais pas. Disons que si j’ai aidé à ce qu’un certain nombre de personnes, à l’intérieur ou à l’extérieur de cette société, se sentent un peu plus adaptées au monde du futur, alors peut-être aurai-je le sentiment d’avoir été un peu utile !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Dominique Levy

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession / Les 10 articles les + lus /
  44. Quelle est l’image des sociétés d’études et quelles sont les attentes prioritaires de leurs clients - Un éclairage exclusif Syntec Etudes - MRnews / Callson

    12 sept. 2014

    Quelle est l’image globale des sociétés d’études auprès des décideurs concernés côté entreprises ? Comment agir pour aller dans le sens d’une plus grande ajoutée ? Selon quels axes prioritaires ?

    Nous vous proposons de découvrir ici quelques petits mais néanmoins précieux points de réponse à ces grandes questions, avec les résultats d’un module complémentaire* à notre baromètre Market Research News / Callson (300 décideurs études en entreprise interrogés), élaboré dans le cadre d’une initiative conjointe et d’un partenariat avec Syntec Etudes, qui prend fort à cœur l’enjeu de la valeur ajoutée de la profession qu’il représente.

    1.     Une image globale des sociétés d’études qui se situe à un niveau assez moyen.

    «  Nous allons vous proposer différentes phrases, et vous demander pour chacune d’elle quelle note correspond le mieux à votre jugement. La note 10 signifie que vous êtes tout à fait d’accord avec cette phrase. La note 0 signifie que vous n’êtes pas du tout d’accord. Et les notes intermédiaires vous permettent de nuancer votre jugement. »

    6,9 sur 10.  Telle est donc la note moyenne que nos 300 décideurs études côté entreprises ont exprimé en réponse à la question de l’image globale qu’ils se font des sociétés d’études en France. Une image qui n’est donc ni excellente, ni exécrable, mais que l’on doit plutôt qualifier de moyenne, cette note étant quasiment identique à celle que nous avions obtenue deux ans plus tôt à l’occasion d’une précédente étude. (la note était de 6,8 sur 10)

    Point important à signaler, cette appréciation globale est parfaitement équivalente selon qu’il s’agit plus spécifiquement des spécialistes des études quantitatives ou des professionnels du « quali », ce qui infirme donc l’hypothèse sans doute la plus communément répandue qui voudrait que les qualitativistes aient une meilleure image que leurs homologues quantitativistes.

    2.      Une plus grande valeur ajoutée des études passe par un effort conjoint entre les instituts et annonceurs

    « Pour ce qui est de la valeur ajoutée des études au sein de votre entreprise, et sur la façon de l'optimiser, quelle est la phrase qui se rapproche le plus de votre opinion ? »

    La balance n’est certes pas parfaitement équilibrée, 44% des décideurs études en entreprise estimant que plus de valeur ajoutée des études passe prioritairement par plus d’effort de la part des instituts. Mais leur posture dominante est loin d’aller dans le sens de la facilité. Pour 47% d’entre eux en effet, cet effort pour plus de valeur ajoutée doit plutôt être partagé entre instituts et annonceurs, 8% partageant même la conviction que ce sont prioritairement eux et non les instituts qui doivent se démener en ce sens.

    Ces résultats sont une belle illustration de la pertinence du concept de « Servuction » (cf. les travaux de Pierre Eiglier et Éric Langeard), avec cette grande spécificité propre à l’univers des services qui veut que la qualité de l’expérience ne dépend pas que de « l’offreur », mais aussi du consommateur. Mais au-delà de ça, ils donnent une mesure intéressante de l’état d’une relation clients - fournisseurs moins critique et univoque que d’aucuns pourraient le penser, la grande question de la valeur ajoutée des études étant à l’évidence un enjeu partagé.

    3.     Des attentes fortement orientées à la fois vers la capacité de conseil des instituts, leur  expertise méthodologique et la qualité formelle des livrables

    On le voit au travers du chart ci-dessus, les attentes des annonceurs dans le sens d’une plus grande valeur ajoutée des sociétés d’études sont plurielles. La hiérarchie qu’ils dressent des priorités d’optimisation est d’ailleurs variable selon que l’on se focalise sur le premier item cité, ou bien sur le classement général (il leur était proposé d’en citer et d’en classer trois).

    Au global, c’est la qualité des présentations et des livrables qui ressort comme étant le domaine prioritaire (50% des citations), ce qui met le doigt sur l’importance capitale des aspects de communication : les informations et les analyses ont vocation à circuler dans l’entreprise et à convaincre ! 

    Une plus grande expertise méthodologique ne vient « que » en 4ème position dans ce classement (avec 35% des citations), mais elle est néanmoins régulièrement citée comme la première priorité.

    Mais l’on voit aussi qu’une plus grande capacité de conseil des instituts vient très haut dans les attentes des entreprises, une plus grande expertise sectorielle (45% des citations) étant l’axe le plus souvent cité, devant l’expertise stratégique et économique (35%) ainsi que l’expertise marketing (33%) avec ces différentes composantes (innovation, communication, fidélisation,…).

    Ce ne sont donc pas les axes de travail qui manquent côté instituts. Encore faut-il y rajouter sans doute ce plus grand défi encore, celui d’aller dans le sens des attentes de leurs clients tout en restant dans une équation économique viable. Ce qui est bien sûr la loi de tout marché !

    Notice méthodologique : Ces résultats ont été obtenus sur la base d’une étude effectuée auprès d’un échantillon représentatif de 300 décideurs en matière d’études marketing, présents chez les annonceurs. Les interviews ont été réalisées en mode CAWI pour partie sur fin 2013 et principalement sur le 1er quadrimestre 2014. 40% de ces interviewés ont été pré-recrutés dans le cadre du baromètre Market Research News- Callson 2014, auquel ils ont participé. Les 60% restants ont été recrutés par une série successifs de mailings, toujours sur la base du même fichier source. Le recueil a été réalisé par la société Callson.


     POUR ACTION 

    Commenter 

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Vie de la profession / Résultats d'études / Les 10 articles les + lus /
  45. Et s’il y avait urgence à mieux intégrer le mobile dans les études marketing ? Interview de Renaud Farrugia, DG France et Europe du sud de SSI

    11 sept. 2014

    L’usage du téléphone mobile et plus spécifiquement des Smartphones et des tablettes est régulièrement présenté comme une belle opportunité pour les études marketing, avec la possibilité d’interroger les consommateurs dans des contextes nouveaux et particulièrement intéressants.

    Mais si, au delà de ce caractère d’opportunité, il y avait aussi une certaine urgence pour les études à s’approprier ce medium au regard des exigences de représentativité des études ? C’est la conviction que développe ici Renaud Farrugia, directeur général pour la France et l’Europe du Sud de SSI, qui répond donc aux questions de Market Research News.

    Market Research News : L’interrogation du public via les téléphones mobiles et en particulier sur les Smartphones fait partie des pratiques encore émergentes, mais en fort développement ces dernières années. On le présente le plus souvent comme une opportunité pour mener des études dans des contextes particulièrement intéressants, notamment dans le cadre d’études « à chaud ». Mais vous allez en quelque sorte plus loin, en affirmant qu’il y a même une certaine urgence à ce que les études s’approprient ce medium. Pourquoi une telle urgence ?

    Renaud Farrugia : Je crois en effet qu’il y a une certaine urgence. Non pas seulement à utiliser les Smartphones comme outil de recueil pour les études marketing, mais aussi à intégrer les spécificités et les contraintes spécifiques de ce medium, ce qui n’est pas forcément aussi simple qu’il n’y parait. Derrière cette nécessité de s’approprier ce nouveau moyen d’études, il y a bien un aspect d’opportunité, vous avez raison de le souligner. Mais nous pensons qu’il y a aussi une certaine urgence à cela si l’on souhaite maintenir une représentativité exemplaire des échantillons et donc des études. Et ce pour une raison assez simple, qui est qu’un nombre croissant et important d’individus ont une telle affinité avec ce médium qu’il est quasiment impossible de les interroger via d’autres moyens. Disons en tout cas qu’il est très difficile de le faire, ce qui revient au même. Or il se trouve que cette population présente un certain nombre de spécificités. Faire l’impasse sur cette population peut donc en effet rapidement poser un réel problème de représentativité.

    Disposez-vous d’éléments objectifs permettant de donner la mesure de ce risque ?

    Oui, tout à fait. Il faut d’une part tenir compte de la forte progression de l’équipement en Smartphones. Celle-ci est naturellement variable selon les pays. En France, le taux de pénétration est passée de 27 à 42% en 2 ans, entre 2011 et 2013. Les taux sont encore plus élevés aux USA puisque nous étions à 50% de pénétration l’an dernier. Ce même taux est à 40% pour l’Allemagne, 55% pour le Royaume Uni. La Chine est déjà à plus de 47% ! Mais l’autre phénomène important que nous observons aussi, c’est qu’une proportion croissante d’individus répondent spontanément aux enquêtes on-line en utilisant leur Smartphone. Cette proportion est aujourd’hui estimée à 15% selon Pew Research, avec des taux qui varient de 6 à 18% selon les pays étudiés. Juste à titre d’illustration de cette affinité que les individus ont avec leur Smartphone, on sait que 87% des américains préfèrent utiliser ce terminal plutôt qu’un autre pour lire leurs e-mails !

    Un des enjeux importants est de savoir si ces individus pour qui le Smartphone est le moyen de réponse privilégié sont sensiblement différents du reste de la population.

    C’est bien la conclusion qui s’impose compte tenu des données d’études dont nous disposons. Ils sont en effet différents du reste de la population sous l’angle socio-démographiques, en étant nettement sur-représentés sur les 18-34 ans et sur les tranches de revenus les plus modestes. Mais ce qui est plus problématique encore, parce que cela ne peut être corrigé par des quotas, c’est que ces personnes n’ont pas les mêmes attitudes ou les mêmes comportements que le reste de la population. C’est particulièrement vrai pour tous les univers où le rapport à la technologie est important, mais en réalité cela s’étend à un ensemble très large de catégories de produits ou de services.

    Tel que vous nous le décrivez-là, on peut être tenté de faire le parallèle avec le phénomène des  « mobile only », des individus uniquement équipés de téléphone mobile. Pendant longtemps, certains instituts ont fait l’impasse sur cette population, en interrogeant que les foyers équipés d’un téléphone fixe, alors même que celle-ci prenait un poids considérable, avec des attitudes et des comportements en effets bien différents du reste de la population…

    Je pense que ce parallèle est tout à fait justifié. Mais je crois néanmoins qu’il y a une différence importante, en ce sens qu’il y a un enjeu « ergonomique » important pour interroger convenablement les « pro-smartphones ». L’interrogation des individus sur téléphone mobile ne nécessitait pas de modifier fortement les questionnaires. Alors que cet impératif est manifeste pour interroger les gens sur leur smartphone. Nous avons mené des expériences pour tester l’effet de différentes configurations d’enquête sur Smartphones, sur plus de 5000 interviews. Dans le 1er cas, la page d’enquête n’était ni plus ni moins qu’une version plus petite de la page originelle en version web. Dans le second cas, il s’agissait d’une page adaptée au Smartphone, en tenant compte des contraintes qu’impose celui-ci. Et dans le 3ème cas, il s’agissait d’une version réellement optimisée de la page web, avec par exemple un défilement horizontal très réduit. Selon ces différentes configurations, les taux de réponse à l’étude variaient du simple au double. La durée de l’entretien et le niveau de satisfaction au regard de l’interview différaient également assez sensiblement en fonction de ces environnements.

    Que pouvez-nous dire quant aux bonnes « règles du jeu » pour interroger correctement les individus sur les Smartphones ?

    Nous avons identifié une dizaine de « règles », que nous avons présentées à l’occasion d’un webinar qui a eu un certain succès, et qui sont récapitulées et détaillées dans ce document. Il faut par exemple adapter la taille des textes, réduire les gestes de défilement, et donc repenser les échelles en conséquence. Mais en fait, il nous semble même qu’il est intéressant d’aller encore plus loin que cela, en sortant de ce réflexe assez naturel qui consiste à transposer la page web du type PC sous la forme d’un page « Smartphone » plus petite (et même beaucoup plus petite puisque le rapport entre le nombre de centimètres carrés disponibles varie de 1à 10, voire même de 1 à 20). L’alternative qui nous semble souvent la plus intéressante consiste à d’abord penser le questionnaire sous le format Smartphone, pour penser à sa déclinaison PC dans un second temps. On inverse la démarche en quelque sorte, en pensant d’abord « Smartphone », ce qui est très illustratif de cette obligation à vraiment penser les choses différemment, ce qui ne se fait pas du jour au lendemain bien sûr !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Renaud Farrugia

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie /
  46. Et si la gestion de la marque Europe était un cas d’école pour les brand managers ? interview de Georges Lewi, auteur de « Europe : bon mythe, mauvaise marque »

    2 sept. 2014

    A l’évidence, la marque Europe n’est pas dans une forme resplendissante et suscite de la part des européens eux-mêmes au mieux une indifférence croissante, quand ce n’est pas du dépit ou même un sentiment de rejet…

    Pour le spécialiste du branding qu’est Georges Lewi (Mythologicorp), les signes sont manifestes de la mauvaise gestion d’une marque qui s’inspire pourtant d’un mythe extrêmement puissant. En quoi l’Europe a-t-elle mal géré sa marque ? Est-elle condamnée ou bien est-il au contraire possible de la revitaliser ? Et quelles sont les « leçons » à tirer de ce cas Europe pour les Brand Managers ? Ce sont les questions auxquelles il répond pour Market Research News suite à la publication de son dernier ouvrage, « Europe : bon mythe, mauvaise marque »

     

    MRNews - Thierry Semblat : Dans votre vision des choses, une bonne marque - une marque efficace - se reconnaît au fait qu’elle s’appuie sur une histoire qui tient la route, ou dit autrement sur un « mythe ». Or s’agissant de l’Europe, votre point de vue est que celle-ci reposerait sur « un bon mythe », tout en étant néanmoins une mauvaise marque. Voilà un paradoxe qui mérite d’être éclairci… Mais en préalable, est-il si évident que l’Europe soit une marque ? Doit-elle nécessairement se proposer comme telle ?

    Georges Lewi : Pour qu’une marque existe, il faut en effet qu’elle s’appuie sur un mythe. Et pour qu’un mythe ne reste pas une idée passive et interagisse correctement avec une société, il faut que cela prenne la forme d’une marque, ou en tout cas, les habits de la marque. On ne peut pas faire autrement aujourd’hui. La marque est le système de référence mental qui nous est imposé par la société, et que nous avons fini par accepter. Nous raisonnons comme cela ; nous achetons des marques pour à peu près tout et n’importe quoi, à la fois dans la sphère du marchand ou du moins marchand. Regardez la façon dont on parle des hommes politiques par exemple. Ce sont des marques dont on « achète » ou pas les idées.

    L’Europe est donc devenue une marque, qu’elle le veuille ou non…

    Originellement, l’Europe est bien sûr une géographie. Et au-delà, c’est une divinité grecque. Celle des barbares puisque l’Europe se définit comme étant « ce ne qui n’est pas la mer ». L’Europe au sens premier, ce sont donc les terres. Pour les grecs, cela désigne ceux qui ne vivent pas au contact de l’eau. En résumé, ils n’ont pas les pieds dans l’eau ; ils n’ont pas de bateaux mais des chevaux, et ont tendance à être des envahisseurs qui descendent vers la mer. Et puis c’est devenu un continent, en englobant la façade méditerranéenne. Mais ce qu’a fait en 1950 la communauté européenne, c’est de créer quelque chose qui ressemble fort à ce que l’on pourrait appeler une marque de holding, ou une marque corporate. C’est à dire qu’à côté des états, dont on peut dire que ce sont des marques commerciales, très identitaires, quelque chose s’est crée, un peu à l’égal des Etats Unis d’Amérique, qui ressemble à une supramarque.

    Il faut donc évaluer la marque Europe dans ce cadre là, en tant que marque corporate. Quels sont les critères spécifiques de jugement que cela implique ?

    Absolument. On peut et l’on doit même faire le parallèle avec des marques comme Danone, Procter &Gamble, Nestlé, Coca Cola,… Ce sont des marques ombrelles, qui sont assez naturellement dans une logique d’extension et ont valeur de caution auprès d’un périmètre de marques « commerciales » très différentes les unes des autres. Ces marques corporates jouent plus ou moins bien leur rôle, sachant qu’il y a à mon sens deux attributs à la fois spécifiques et essentiels pour en juger : la puissance d’une part, et la culture. Une marque corporate a l’obligation d’être puissante parce qu’elle se doit de défendre les intérêts de ses marques filles. Ce n’est pas Danette qui va négocier avec Carrefour, c’est Danone. Idem pour Coca Cola, qui va défendre les intérêts de Powerade ou de Minute Maid. Mais la deuxième composante, celle de la culture, est également essentielle. La marque corporate doit savoir faire vivre une culture commune à l’ensemble des marques filles.

    L’Europe a-t-elle donc mal joué ce rôle de marque corporate ?

    Oui, cela semble assez évident. Je pense que l’Europe s’est trompée en pensant pouvoir jouer le rôle de marque commerciale, de marque « pays ». Peut-être a-t-elle été un peu fascinée par l’exemple des USA, alors qu’à y regarder d’un peu près, ce pays me semble incarner un exemple très réussi de marque corporate. Une marque de holding qui joue parfaitement son rôle sait à la fois utiliser sa puissance et répartir équitablement les ressources entre les marques filles. Elle sait comment faciliter le développement d’une marque sans écraser les autres, comme Nestlé l’a fait pour Nespresso ou Coca Cola pour Powerade. Le contre-exemple vient de groupes dont on ne sait pas à quoi ils servent : ils achètent et revendent des marques sans que l’on sache pourquoi, sans qu’il y ait une vision. Concernant l’Europe, cette logique d’extension est on ne peut plus flagrante, avec désormais 28 pays. Mais la question est bien celle du pourquoi. Il n’y a pas de réponse claire à celle-ci, il n’y a pas la vision à laquelle les gens pourraient adhérer, il n’y a pas de sens partagé.

    Je pense en tout cas que c’est une réflexion qui a véritablement manqué à l’Europe, qui est par exemple manifeste dans la chasse qui a été faite à l’ensemble des regroupements de sociétés européennes, sous prétexte de libre concurrence. A la sortie, il n’y a en effet pas de positions dominantes, mais nos entreprises finissent par être absorbées par des sociétés extra-européennes, qui n’ont pas de scrupules à supprimer nos emplois.

    Voyez-vous d’autres limites importantes de l’Europe en tant que marque ?

    Oui. L’autre problème important qu’a la marque Europe, c’est qu’il n’y a pas d’émetteur. On ne sait pas qui parle. Quand on évoque ce que fait l’Europe, on ne sait pas clairement s’il s’agit du parlement, du conseil des ministres, de la cour de justice, de José Manuel Barroso,… C’est multiple, c’est même une vraie cacophonie. Alors que le B.A.-BA de la communication, c’est qu’il y ait une unité de communication.

    Vous dites que l’Europe s’appuie sur un « bon mythe ». Comment définiriez-vous celui-ci ?

    En réalité, je crois que c’est un petit plus compliqué que cela. L’Europe originelle, celle du Traité de Paris de 1951, se présente comme un superbe mythe en effet, qui est tout simplement celui de la paix. N’oublions pas que sur ce continent, les pays n’ont eu de cesse de se combattre les uns les autres, au moins depuis le début du moyen âge. Les Français, les Allemands, les Anglais, les Espagnols,… Nous n’avons pas arrêté de nous faire la guerre. Et la construction de l’Europe du CECA et des étapes qui ont suivi nous ont permis de lutter contre ce fléau de la guerre. C’est une réussite manifeste de ce point de vue là, même s’il y a une exception importante comme la guerre du Kosovo, au cœur même de l’Europe.

    Et pourtant dites-vous, c’est plus complexe que cela. Pourquoi ?

    Ce qui complique les choses en effet, c’est l’âge de l’Europe. C’est une marque qui a environ 50 ans ; et 50 ans c’est un mauvais âge, parce que cela correspond à peu près à 3 générations. Et il est toujours extrêmement compliqué de faire perdurer un mythe au-delà de 2 ou 3 générations. Pour la génération de mes parents ou pour la mienne, le fait d’avoir permis d’éviter les guerres est un vrai succès que l’on peut attribuer à l’Europe. Mais à l’issue de trois générations, tout cela perd de sa force et tombe progressivement dans l’oubli. On en arrive à une sorte de fin de cycle.

    Le mythe fondateur s’essouffle donc ? Est-ce qu’il y a une fatalité à cela ?

    C’est une problématique que connaissent bien les marques un peu anciennes. Ce que la marque Europe n’a pas su faire, c’est de re-définir son mythe, de proposer une nouvelle histoire. Et pour construire un mythe, il faut qu’il y ait une figure essentielle qui est celle de l’opposant, de l’ennemi. Il n’y a pas de mythe s’il n’y a pas un ennemi ou un fléau à combattre. Il y a donc une vraie nécessité à « construire l’ennemi » comme l’évoque Umberto Ecco dans son dernier livre, avec l’anecdote du chauffeur de taxi pakistanais qui n’arrive pas à accepter l’idée que le pays de son passager, l’Italie en l’occurrence, n’ait pas d’ennemi. La nature humaine est ainsi faite que pour exister, il faut s’opposer à quelque chose ou à quelqu’un. Le risque étant que si l’on ne désigne pas « intelligemment » le combat que l’on mène, contre la pauvreté ou l’inégalité par exemple, on se retrouve à se battre avec ses voisins en vertu du fait qu’ils sont différents : les musulmans ou les juifs par exemple ! L’ennemi de l’Europe a jusqu’ici été la guerre ; il faut que nous définissions un autre ennemi et avec lui un autre combat, une autre vision.

    La marque Europe serait-elle condamnée, « fichue » ?

    Je crois qu’une marque n’est jamais fichue. Mais elle peut perdre du temps. Il y a aujourd’hui un certain nombre d’européistes. Disons aux environs de 15 à 20% de la population. Encore faut-il leur donner des raisons d’y croire, alors que le discours dominant d’aujourd’hui consiste simplement à dire qu’il faut plus d’Europe, mais sans donner le pourquoi. Si l’on parvient à redéfinir pour l’Europe une sorte de plateforme de marque, à l’identique de ce que l’on fait classiquement au travers du branding (avec une vision, une mission, des ambitions, des valeurs, des moyens,…), rien ne s’oppose à ce que l’on se retrouve avec 40 ou 50% de gens qui vont être « pour » l’Europe. Aujourd’hui, ils ne sont pas nécessairement « contre », mais ils n’ont pas de raison d’être « pour ». Ils voient que la vie est chère, que le chômage est massivement présent, qu’il y a des lois tatillonnes ou incompréhensibles. Et ils voient que le pouvoir leur a échappé. La holding a sans doute pris trop de pouvoir, ce qui arrive parfois dans l’univers des marques commerciales, surtout quand on ne sait pas ce qu’elle propose, quand il n’y a pas de sens apparent.

    Au travers de ce cas Europe, quelles vous semblent être les leçons qui seraient bonnes à tirer pour les brand managers, les questions que cela devrait les encourager à se poser plus souvent à propos de leurs marques ?

    Je crois vraiment que ce cas est emblématique d’un changement important dans les règles du storytelling. Jusqu’à assez récemment, on pouvait se permettre d’élaborer un storytelling et une plateforme de marque sans trop se préoccuper de ce point que nous avons évoqué, cette nécessité à « construire l’ennemi ». Il me semble que le contexte s’est durci, et que les gens ont besoin de s’entendre dire contre quoi il faut se battre. Une marque comme Apple par exemple l’a toujours fait, en désignant un ennemi qui est la lourdeur, la dictature, la norme. D’autres marques le faisaient plus implicitement. Mais aujourd’hui, je crois qu’il faut que le combat de la marque redevienne plus explicite. C’est évident pour la marque Europe, ça l’est également pour la marque France. Mais cela me semble une vraie question à se poser pour beaucoup de marques aujourd’hui !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Georges Lewi

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Livres, publications / Marque /
  47. ITWP, société mère de Toluna, achète Harris Interactive Europe à Nielsen - Interview de Nathalie Perrio-Combeaux et Patrick Van Bloeme

    10 juil. 2014

    L’été réserve parfois des surprises. C’est à l’évidence le cas avec l’annonce du changement de main de la branche européenne d’Harris Interactive (France, UK et Allemagne) qui, 5 mois après voir été achetée par Nielsen Holdings, vient de passer sous le contrôle d’ITWP, société d’investissement privée (actionnaire unique de Toluna) et dirigée par son fondateur, Frédéric Petit (cf. son interview sur l’histoire de Toluna).

    Quel sens ce rachat a-t-il pour Harris Interactive ? Quelles perspectives cela laisse-t-il présager pour cette société qui compte aujourd’hui parmi le top 15 des instituts français d’études marketing ? Ce sont les questions que nous avons posées à Nathalie Perrio-Combeaux et Patrick Van Bloeme, qui forment depuis toujours son tandem de direction.

    Market Research News : Selon les termes du communiqué que vous venez de publier, ITWP Acquisitions Limited, société mère de Toluna, a annoncé le rachat de Harris Interactive SAS en France, Harris Interactive AG en Allemagne et Harris Interactive UK (soit l'ensemble de l'activité Europe) auprès de Nielsen. Il s’agit d’un événement important pour le marché des études. Quelle en est la logique ?

    Nathalie Perrio-Combeaux - Patrick Van Bloeme : Le principe est très simple. Il s’agit pour ITWP d’accroître sa présence sur toute la filière des études de marché. Cet acteur était déjà présent avec Toluna, dont il est l’actionnaire unique, à la fois sur les activités de panels et sur les solutions technologiques. En faisant l’acquisition d’Harris Interactive en Europe (France, Allemagne et UK), ITWP rajoute donc la composante institut, ce qui lui permet ainsi de bénéficier d’une pleine présence sur toute la chaîne des études. De notre côté, ce qui nous plaît beaucoup dans ce projet, ce sont ses perspectives extrêmement intéressantes, avec beaucoup de complémentarités et de synergies possibles, en particulier en termes de R&D et d'innovation ; pour mieux répondre aux besoins des clients et intégrer les mutations de notre marché. C’est un rapprochement qui fait donc parfaitement sens.

    Concrètement, qu’est-ce que cela va changer pour la marque Harris Interactive, pour sa direction et plus largement pour les équipes ?

    Cette session est bien sûr un événement important pour le marché, et majeur pour Harris Interactive. C’est une nouvelle étape essentielle. Mais cela ne change rien pour la marque et les équipes. Nous voulons dire par là que selon les termes de ce projet auquel nous avons activement participé, il y a bien maintien de deux entités, avec deux marques spécifiques et deux positionnements distincts, Harris Interactive d’un côté, Toluna de l’autre, et ce pour les 3 pays en Europe.

    Si l’on se place maintenant du côté de vos clients, qu’est ce que cette intégration au sein d’ITWP va changer pour eux ? Quelles sont les synergies dont ils devraient bénéficier ?

    Dans l’ADN d’Harris Interactive, il y a des valeurs essentielles d’innovation, de réactivité et de souplesse. Nous pensons que ce rapprochement va nous permettre d’aller encore plus loin sur ces axes du fait de l’importance de la R&D qui est au cœur de la stratégie du groupe ITWP,. Nous allons gagner en flexibilité dans nos processus de production. Et nous allons gagner aussi en termes de réactivité, du fait des solutions technologiques sur lesquelles nous allons pouvoir nous appuyer. Nous pensons par exemple à tout ce qui relève des outils de reporting et des processus d’automatisation des livrables, intégrant l’image et la vidéo. Cela nous semble correspondre à un enjeu majeur et à des attentes fortes du marché et de nos clients. Les décideurs marketing  souhaitent aujourd'hui  des études fiables, pertinentes; qui aillent vite, avec des livrables qui puissent être diffusés dans des environnements internationaux, et qui soient adaptés en fonction des types d’acteurs concernés en interne.

    Ces synergies portent également sur la composante « recueil ». Nous avons pris position très tôt en termes d’innovation dans ce domaine, avec les études sur mobile ou encore les communautés en ligne. Nous pensons qu’il y a de réelles possibilités pour aller plus loin encore là aussi, notre conviction étant que l’accès aux consommateurs et la qualité du lien qui s’établit avec eux reste un enjeu majeur pour notre métier. Il faut que l’on continue à développer des solutions intelligentes autour de cet enjeu.

    Une bonne partie de l’activité de Toluna repose sur les panels. Harris Interactive dispose de ses propres outils. Quelles sont les perspectives les concernant, sachant qu’il se pose pas mal de questions sur le devenir de ce mode de recueil ?

    Les deux sociétés restant distinctes, elles conservent chacune leurs actifs dont notamment leurs panels respectifs.  Pour ce qui est de notre stratégie panel, elle consiste à développer nos outils à travers nos observatoires Net-Observer et M-Observer, qui fonctionnent très bien. Nous sommes très confiants sur les perspectives de développement de ce petit dernier (NDLR : M-Observer est centré sur les interfaces mobiles), qui repose sur un partenariat « gagnant-gagnant » entre les sites et appli mobiles et nous.

    Toluna ne va-t-il pas se retrouver dans une position un peu particulière, en ayant pour clients des sociétés qui sont vos concurrents ?

    Tout cela n’a rien d’extraordinaire. C’est même une situation assez habituelle dans le domaine des études, où l’imbrication entre les différents acteurs est naturellement forte. Des sociétés de terrain appartiennent déjà à des groupes de communication,  des sociétés de traitement à des instituts.

    C’est une situation qui exige de  bâtir ce que nous appelons une muraille de Chine, et faire en sorte que ce contexte ne cause de soucis à personne, pas plus à nous qu’à nos concurrents. Nous connaissons bien cela avec notre activité de terrain.

    Vu d’un peu loin, le fait qu’Harris Interactive ait été repris par Nielsen, puis revendu quelques mois plus tard à ITWP ne donne pas la trame d’une histoire très lisible. Quels sont les sous-titres à prendre en compte pour mieux comprendre l’histoire ?

    C’est vrai que cela peut paraître un peu curieux, alors qu’en réalité, l’histoire est assez simple. La holding Nielsen s’est intéressée au groupe Harris Interactive pour la partie américaine. Peu après le rachat, il a été prévu que la partie européenne ne serait pas intégrée car n'entrant pas bien dans la stratégie européenne de Nielsen. Nielsen s'est alors tourné naturellement vers ITWP, partenaire stratégique de Nielsen et d'Harris Interactive. D'ailleurs Nielsen devient un actionnaire minoritaire d'ITWP et a signé un accord stratégique de coopération mutuelle.

    L’opération est néanmoins inattendue et elle frappe les esprits.  Est-ce le signe que les frontières anciennes du marché n’ont plus beaucoup de sens ?

    C’est certainement le signe de la mutation de notre marché, qui est aujourd’hui formidablement ouvert, avec la nécessité d’apporter des réponses nouvelles dans un contexte où les challenges ne manquent pas. L’immobilisme n’est pas de mise. Et nous sommes réellement très confiants sur les perspectives d’Harris Interactive en tant qu’institut, présent tant en quali qu’en quanti, aussi bien en on-line qu’en off-line, au sein d’un groupe qui a une vision à long terme du métier des études et a toujours fait le pari de l’innovation.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Nathalie Perrio-Combeaux   @ Patrick Van Bloeme

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  48. Le cas FreeThinking, pure player de l’écoute collaborative on-line - Interview de Xavier Charpentier et Véronique Langlois.

    30 juin 2014

    Originale. C’est sans doute un des premiers mots qui vient à l’esprit lorsqu’on évoque la position de FreeThinking dans le paysage des études marketing, cette petite structure intégrée au groupe Publicis l’étant même à double titre. D’une part en ayant fait, depuis sa naissance, le choix d’être un pure-player des études qualitatives s’appuyant sur des plateformes collaboratives on-line. Et d’autre part du fait de l’origine de ses dirigeants fondateurs, Xavier Charpentier et Véronique Langlois étant tout deux issus de l’univers du planning stratégique.

    FreeThinking venant tout juste de franchir le cap - toujours délicat paraît-il- de ses 7 premières années d’existence, nous avons saisi l’opportunité d’interroger son tandem de direction sur le bilan et les perspectives de cette - encore - jeune structure.

    MRNews - Thierry Semblat  : FreeThinking vient tout juste de passer le cap des 7 ans, avec un nouveau site et la publication d’un livre blanc. Ce chiffre 7 est symboliquement important. Que représente-t-il pour votre structure ? FreeThinking aurait-il atteint l’âge de raison ?

    Xavier Charpentier / Véronique Langlois : Peut-être. Mais en même temps, cela reste l’âge de l’enthousiasme, notre projet n’étant pas nécessairement de nous assagir. On considère souvent le cap des 7 ans comme celui du « ça passe ou ça casse ». Manifestement, nous sommes bien dans la configuration du « ça passe », ces 7 ans coïncidant avec une forme de confirmation du fait qu’en dépit ou grâce à notre originalité, nous avons bien quelque chose à apporter à nos clients et aux annonceurs.

    En quelques mots, comment définiriez-vous le parti-pris fondateur de Free Thinking et ce qui fonde votre originalité ?

    Si on devait le résumer en un seul mot, celui d’ « avec » est tout désigné. Avec les consommateurs, mais aussi avec nos clients. Derrière ce « avec », il y a une option technique bien précise, qui est celle des plateformes quali collaboratives. Nous créons et animons des communautés de personnes, en visant une forme d’écoute différente et complémentaire de ce qu’offrent les autres techniques. Cette option technique a son importance, mais nous sommes néanmoins tentés de dire qu’elle n’est en même temps que secondaire. Nous voulons dire par là qu’elle n’est que la conséquence ou la traduction d’un parti-pris fondamental, d’une philosophie, celle qui consiste à optimiser la relation avec les gens pour profiter le mieux possible de leur richesse et de leur intelligence. Derrière cela, il y a bien une forme d’écoute spécifique, et aussi l’état d’esprit d’avancer avec les gens, en utilisant les opportunités du web.

    Notre originalité se fonde également sur notre point commun, celui d’être tous les deux issus du monde du planning stratégique.

    Prenons néanmoins l’angle de la technique, même si j’entends bien qu’il n’est pas le plus important. Qu’est-ce que l’on peut attendre du quali collaboratif, en comparaison notamment des approches plus traditionnelles ?

    Avec les plateformes que nous mettons en place, nous proposons aux consommateurs un espace d’expression qui leur est propre, sécurisé, anonymisé et généreux en temps. La conséquence est que nous créons ainsi des conditions qui permettent, via ce qu’il y a de spécifique dans l’expression sur le web, de s’approcher un peu plus de la vraie vie des gens. Cela permet par exemple de faire un sort à cette séparation qui est souvent faite entre le rationnel et l’émotionnel, qui est en fait purement artificielle. Cela donne un droit qui est extrêmement fécond pour la parole des consommateurs, qui est celui de l’impudeur. Non pas pour leur donner le plaisir de s’exhiber, mais pour leur permettre de dire des vérités qui sont le plus souvent tues sous le regard de l’autre. Ce sont enfin des outils extrêmement puissants pour cerner comment se fait ou se défait une dynamique, et pour saisir ces points très précieux qui sont les moments de conversion : qu’est-ce qui, à un moment donné, change la donne, infléchit ou même parfois inverse des représentations ou des attitudes. Il résulte de tout cela une très grande puissance des insights qui sont dégagés.

    Si je fais un peu de provocation, est-ce que l’originalité qui était la vôtre il y a sept ans ne s’est pas un peu diluée ? D’autres acteurs et y compris des grands instituts, utilisent désormais ces techniques…

    Nous ne croyons pas du tout au fait que notre originalité se soit diluée. Nos clients ne nous renvoient pas cette image en tout cas.  Ce qui est copiable en effet, c’est le côté technique des choses. Le montage d’une communauté est une technique copiable, comme le quali dit « traditionnel » tel qu’il a été élaboré par ses pionniers a lui même été copié. Il faut en prendre son parti. Ce qui n’est pas copiable en revanche, c’est l’expérience, le savoir faire associé à cette technique. Si l’on poursuit le parallèle avec les études qualitatives, elles ne donnent quand même pas tout à fait le même résultat selon qu’elles soient réalisées par un Roland Guenoun ou un Yves Krief plutôt que par un junior ! Le fait est que nous avons appris beaucoup de choses sur la base de ces sept ans d’expérience. Et nous revenons sur ce point, qui est celui de notre cursus dans l’univers du planning stratégique, qui est également un gage essentiel d’originalité.

    Venons-en donc à ce point. Qu’est-ce-que cette expérience du planning stratégique vous semble apporter dans l’univers des études marketing, et plus spécifiquement dans les chantiers que vous gérez ?

    Le métier de planner, tel qu’il a été inventé par Stanley Pollitt, est fondamentalement un métier de passeur, d’interprète. Le planner est celui qui sait parler différentes langues en s’adaptant à différents environnements. C’est naturellement un atout important dans un contexte où les consommateurs sont en attente d’une relation beaucoup plus forte avec les marques et avec tout l’univers du marketing, dont les études. Une des compétences fortement associées à la fonction de planner est bien sûr celle de la communication. Ce background commun nous donne donc une aptitude à déployer une communication stimulante vis à vis des consommateurs, pour faire en sorte qu’ils en disent plus.

    J’imagine que cela a aussi des implications dans la relation avec les annonceurs ?

    Absolument. Ces aptitudes particulières sur ces aspects de communication sont bien sûr extrêmement intéressantes à mobiliser pour « vendre », pour faire œuvre de pédagogie, avoir l’impact nécessaire pour faire passer les messages. Une autre vertu importante associée au métier du planning stratégique est celle de faciliter la remise en cause des silos au sein de l’entreprise. Cela facilite la constitution de task-force qui rassemblent des expertises originellement dispersées dans les entreprises, ce qui est particulièrement appréciable lorsqu’on essaie de trouver de nouvelles idées, de nouvelles pistes d’innovation par exemple. Par capillarité, cela peut aussi avoir pour effet de donner un rôle différent aux experts études des entreprises. En les mettant moins en position de prestataire, plus en médiateur et en organisateur, en étant le trait d’union entre le consommateur et une équipe de travail en interne.

    Vous faites partie de ce que l’on appelle des marginaux sécants, des gens qui ont leurs deux pieds dans deux mondes différents ?

    C’est la définition même du métier de planner que d’évoluer ainsi. Cela va avec ce rôle de passeur, et donc de facilitateur de l’innovation. L’émergence du planning dans les études et dans les entreprises est directement lié à la complexification du métier et des consommateurs, qui sont à la fois contraints et de plus en plus avertis par rapport aux mécanismes. Donc oui, nous sommes sans doute des marginaux sécants !

    En sept ans, les choses ont-elles beaucoup changé, que ce soit dans votre façon de travailler ou dans le regard des clients ?

    Il y a évidemment eu un effet d’expérience très important, nous l’avons évoqué. Nous avons progressé sur les dimensions d’animation, sur l’identification de la meilleure façon de parler avec les gens, de modérer les communautés, de les stimuler, ou même parfois de les secouer un peu lorsque c’est nécessaire. Nous avons bien sûr profité de la diffusion du web, qui nous permet de travailler sur des profils de consommateurs de plus en plus diversifiés. Et nous sommes aussi plus au fait des possibilités de gestion des communautés : quand est-ce qu’il est intéressant de les mixer, de les combiner, ou de les confronter. Et bien sûr, nos grilles d’analyse se sont également peaufinées.

    Pour ce qui est du regard des clients, les choses ont également bien évolué. Dans les premiers temps, notre originalité était une différence et donc une force, mais aussi une difficulté. Nous n’étions pas du sérail des études ! Il nous a donc fallu acquérir une légitimité, ce qui est aujourd’hui un objectif atteint. Il reste néanmoins un travail de conviction et de pédagogie auprès de certaines entreprises, notamment celles où le culte du chiffre reste très vivace, ou qui restent assez peu perméables à des approches exploratoires.

    Une dernière question enfin pour évoquer les perspectives ; Quelles sont les lignes d’évolution qui vous paraissent les plus évidentes pour les années à venir ?

    Le développement international s’impose comme une évidence, la valeur ajoutée de nos approches étant exponentielle dans des contextes multi-culturels. Le contexte économique ne peut également que nous pousser dans cette direction. Nous allons aussi très certainement développer notre présence sur les approches de type e-ethno. C’est une évolution là aussi très évidente compte tenu de la facilité que nous avons, avec nos approches, à rentrer dans l’univers des gens, sans être intrusifs. Nous vivons tous les jours le fait que les gens nous donnent le témoignage de ce qu’il y a de plus précieux dans leur vie, ce qui est absolument magique. Et enfin et bien sûr, notre pari est de continuer à diffuser le quali collaboratif dans les études d'opinion, avec la conviction que la robustesse de ces approches permet de challenger bien des sondages quantitatifs. Nos 7 ans de suivi des classes moyennes – notamment sur le pouvoir d'achat – en sont une preuve et une belle promesse.


     POUR ACTION 

    Commenter 

    • Echanger avec les interviewés : @ Xavier Charpentier,   @ Véronique Langlois

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  49. The Brand News Blog : un blog 100% dédié au branding

    27 juin 2014

    Nous n’avons jamais hésité à signaler à nos lecteurs les sites «confrères » (ou parfois même concurrents !), et en particulier les blogs qui nous semblent les plus intéressants à partager (voir notamment notre rubrique Liens Utiles). Nous le faisons à nouveau bien volontiers en vous invitant ce mois-ci à découvrir un blog entièrement dédié aux épineuses et passionnantes questions soulevées par le management des marques, le bien nommé Brand News Blog.

    Animé par Hervé Monier, qui dispose d’une solide expérience en la matière à la fois côté agence de communication (Publicis) et côté annonceur, ce blog est une réelle mine de contributions plus fouillées les unes que les autres. Pour le découvrir (ou le redécouvrir), voici donc une petite sélection d’articles publiés dans ce blog :

    - 10 blogs marketing pour bien commencer 2014. L’année est bien entamée, mais il n’est jamais trop tard pour bien faire, et en l’occurrence pour découvrir cette short list des meilleurs blogs marketing identifiés par The Brand News Blog, son complément naturel étant la liste des 100 twittos du marketing et de la communication à suivre sans hésiter.

    - Les 10 "tartes à la crème" des gourous du digital et des médias sociaux, avec une suggestion de quelques idées dont il serait bienvenu de tordre le cou, parmi lesquelles celle qui voudrait que le marketing soit mort (personne n’est visé bien sûr), que la publicité payante et les médias traditionnels soient dépassés, ou que les bons contenus se suffisent à eux-mêmes

    - La leçon de branding de François-Henri Pinault, P-DG de Kering, un article tout à fait passionnant faisant lui-même écho à une tribune publiée par François-Henri Pinault dans la Harvard Business Review, ou il livre une explication particulièrement pédagogique de sa logique d’action en tant que super patron des marques de la galaxie Kering (PPR), et sa vision des facteurs clés de succès du développement des marques de luxe.

    - Six bonnes raisons de croire en la communication… et de ne pas désespérer des communicants, avec donc ce que l’auteur nomme comme étant la « preuve par 6 » des évolutions inéluctables dans les pratiques de communication

    - Marque corporate, marque commerciale, marque employeur: et si on arrêtait de travailler en silos ?, avec une belle invitation à repenser le management des marques avec une perspective holistique des différentes parties prenantes

    - Le luxe déchaîné, ou comment les marques françaises de luxe font leur révolution culturelle, avec les 3 grands bouleversements en cours (qu’ils soient hyper visibles ou pas) dans cet univers passionnant, mais complexe.

    - Et enfin La transparence en communication : utopie, diktat ou opportunité ?, une analyse on ne peut plus intéressante sur la montée en puissance de cette valeur, et les meilleures options pour composer avec.

    En vous en souhaitant très bonne lecture.


     POUR ACTION 

    Commenter 

    Suivre les publications sur ce blog

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Blogs / Marque /
  50. Best of marketing books : Le Marketing Digital

    24 juin 2014

    Il est des sujets pour lesquels paraissent des ouvrages qui s’imposent plus ou moins rapidement comme des références assez incontournables pour les praticiens du marketing.

    C’est à l’évidence le cas pour Le Marketing Digital, un ouvrage co-écrit par François Scheid, Renaud Vaillant et Grégoire de Montaigu, publié en 2012 aux éditions Eyrolles, et qui selon les termes de Patrick Hoeffstetter (Directeur Digital Factory de Renault) permet « « d’offrir une vision structurée et une compréhension claire des enjeux, des stratégies et des outils du marketing digital ». C’est donc avec ce livre, très complémentaire de celui publié l’an dernier par Laurent Florès (Mesurer l’efficacité du marketing digital) que nous inaugurons cette nouvelle rubrique Best of Marketing Books, avec un résumé et une contribution de Muriel Perret (Directeur Etudes Marketing et Prospective International chez Bel)

    Certaines évidences méritent d’être encore et toujours rappelées : le marketing digital change les règles du jeu du marketing, principalement parce qu’internet est un canal de communication fondé sur l’interaction  (entre les entreprises et les consommateurs, entre les consommateurs eux-mêmes ou encore au sein d’une communauté d’individus), ainsi que le transfert instantané d’informations.

    Nous sommes ainsi en train de passer du marketing “for” au marketing “with »: le marketing digital devant viser à l’engagement des internautes, voire à les transformer en « ambassadeurs » de la marque.

    PARTIE I : DEFINIR UNE STRATEGIE DIGITALE

    La répartition des investissements publicitaires par canal ne correspond plus du tout au temps de consommation des médias par les individus. D’après le cabinet Forrester, aux Etats-Unis en 2010, l’internet fixe et mobile représentait 34% du temps passé sur les médias et seulement 19% des budgets publicitaires. C’est la presse qui était la plus sur-représentée avec 30% des budgets contre 10% du temps. Le budget investi en télévision (40%) correspondait au temps passé (39%).

    Les spécificités du marketing digital : hyper mesurabilité, évolution rapide liée à la technologie, multiplicité et additivité des actions. Ainsi par exemple, le référencement naturel sur les moteurs de recherche est une activité essentielle qui n’a pas été remplacée par des actions sur les réseaux sociaux ; au contraire, les actions sur les réseaux sociaux peuvent aider le référencement naturel.

    Le modèle de création de valeur sur internet et la démarche stratégique 

    Attirer : acquérir ou générer du trafic

    Convertir : transformer le trafic en valeur

    Fidéliser : répéter la valeur dans le temps. Fred Reichfeld affirmait dans son best-seller de 1996 « L’effet loyauté » que « garder un client revient 5 à 10 fois moins cher que d’en conquérir un nouveau ».

    Type de site

    Valeur recherchée

    Indicateurs de conversion

    Valeur après fidélisation

    Information

    (ex garnier.fr)

    Attention

     

    Nombre de visites durant plus de 2 minutes sur le site

    Mémorisation

    Média

    (ex le monde.fr)

    Audience

    Nombre de visites avec plus d’une page consultée (indicateur réciproque est le taux de rebond : nombre de visites à une page

    Audience récurrente (par opposition le taux d’attrition ou « churn » = % d’utilisateurs perdus sur une période donnée)

    E-Commerce

    (ex fnac.com)

    Ventes

    Nombre de ventes

    Taux de conversion moyen = 2% (2 ventes pour 100 visites

    Client fidèle

    Transactionnel

    (ex cetelem.fr)

    Leads

    Nombre de leads (eg internaute ayant rempli formulaire de simulation)

    Client

    Service en ligne

    (linkedin.com)

    Utilisation

    Nombre d’inscriptions

    Utilisateur fidèle

     

    Le plan marketing digital

    Ex de Priorités stratégiques

    Levier associé

    Tactiques

    Attirer les visiteurs à la recherche de bons plans

    Attirer

    (acquérir)

     

    Faire venir de nouveaux visiteurs sur le site en proposant des offres promotionnelles. Donner un aspect exclusif aux offres proposées.

    Faire connaître la marque auprès du cœur de cible

    Attirer

    (générer)

     

    Etre présent en continu auprès du cœur de cible. Associer la marque à des temps forts, valorisants pour la cible.

    Accroitre le taux de transformation

     

    Convertir

    Raccourcir le tunnel de conversion

    Mettre en œuvre des relances sur abandon de panier

    Augmenter la fidélité des clients

    Fidéliser

    Utiliser les clients comme ambassadeurs de l’enseigne

    Augmenter les ventes en ligne

    Sur le segment « Petit électro-ménager »

    Attirer

    Convertir

    Fidéliser

    Lancer des campagnes SEM sur la thématique « petit électro-ménager ». Améliorer le contenu des fiches produits « petit électro-ménager » pour maximiser la transformation. Identifier dans la base client ceux ayant une appétence pour ce type de produit et leur proposer une offre dédiée.

     

    Mix marketing digital 

    Le marketing mix digital est la mise en œuvre des tactiques à travers un choix cohérent de leviers. Un des adages du marketing digital est de ne pas mettre tous ses œufs dans le même panier. On peut réaliser des arbitrages par objectif (attirer, convertir, fidéliser), par budget (en cas de budgets réduits, choisir des leviers à la performance pour ne pas diluer l’efficacité marketing : liens sponsorisés, affiliation…), par cible (les internautes ciblés sont-ils présent massivement sur les réseaux sociaux?), par concurrence (il peut être intéressant de se positionner sur des leviers négligés par la concurrence. Sans oublier la recommandation de tester et expérimenter de nouveaux leviers pour vérifier leur pertinence pour nos objectifs.

    PARTIE II : LA PLATEFORME DIGITALE

    « Context is God, content is King, Distribution is Queen ». Le contexte caractérise le moment de l’interaction en termes de temps, géolocalisation et de nature des terminaux (smartphone ou ordinateur).

    Une clé de succès d’une plate-forme digitale est d’avoir au moins une partie de l’expérience proposée qui soit unique aux yeux des utilisateurs par l’information ou les services proposés. L’e-marketeur peut élaborer un service ou contenu propre ou utiliser l’existant via des services de partenariat.

    L’adage veut qu’un client qui utilise plusieurs points de transactions (site d’e-commerce, boutiques, mobile) dépense 2 à 4 fois plus chez une enseigne qu’un client monocanal.

    PARTIE III : LES LEVIERS DU MARKETING DIGITAL

    Evaluer les résultats d’une campagne Display. Les indicateurs suivis automatiquement pour toute campagne sont : le nombre d’impressions/d’affichages, le nombre de clics, le nombre d’actions effectuées sur le site suite à un clic, les données « post-view » (comportement des internautes ayant vu la publicité et étant identifiés comme tels grâce à un système de cookies). Ces données permettent de mesurer le trafic et les conversions induits par la campagne publicitaire. Les campagnes display obtiennent un Click Through Rate (CTR) de 0,2% en moyenne (nombre de clics/nombre d’impressions) mais la variabilité est très forte. L’évolution du nombre de recherches liées à la marque est aussi un indicateur à suivre suite à une campagne display. Des études plus poussées peuvent être proposées pour des budgets plus importants : post-test d’image, indicateurs d’engagement (durée d’exposition, visionnage, temps passé sur le site), impact sur les ventes (via le croisement d’un panel de consommateurs et d’internautes).

    Monter des partenariats spécifiques avec des sites à fort potentiel est intéressant. Les échanges sont très fréquent entre les sites media (qui veulent conserver leur audience sur leur site) et les services en ligne (qui cherchent à optimiser leur coût d’acquisition). Par exemple la rubrique rencontre du portail MSN est gérée par Meetic.

    PARTIE IV : SOCIAL, LOCAL, MOBILE

    Forrester a proposé une typologie du degré de participation des internautes au web social : les creators (13%) publient sur un site, un blog, mettent des vidéos en ligne, les critics (19%) commentent et postent des recommandations, les collectors (15%) utilisent les flux RSS et taguent les pages Web, les joiners (19%) utilisent les sites de réseautage social, les spectators (23%) lisent les blogs, regardent les vidéos, les inactives (52%) ne réalisent aucune des activités précédentes. Il faut noter qu’à part les inactives les autres types ne sont pas exclusifs les uns des autres.

    L’entreprise doit arrêter de se positionner au-dessus de ses clients et de les étudier comme un scientifique étudierait un échantillon au microscope et elle doit être au cœur du marché et doit écouter en permanence la voix des clients. Il y a 2 démarches d’écoute à instaurer : la veille, l’entreprise doit écouter tout ce qui se dit sur elle en on et offline (plaintes, remontées des commerciaux en contact avec les clients) et la participation, l’entreprise doit mettre en place des outils pour faciliter l’expression des internautes/ consommateurs.

    De la segmentation au maillage : l’organisation ne doit pas chercher à créer une représentation du marché dans une approche « top-down » mais partir de l’existant, c’est-à-dire des groupes et des communautés qui sont autour d’elle. En effet, les communautés, réseaux et tribus en ligne sont des groupes d’individus bien plus riches pour le marketeur que les segments classiques dans la mesure où ces regroupement ont une véritable réalité. L’objectif est d’identifier les regroupements existants, de comprendre les relations entre eux, leur interconnexion etc.

    Les 3 leviers du Social Media Optimization (SMO) pour obtenir une visibilité et efficacité maximum sur le web social sont l’engagement, l’animation et la conversation.

    Les relations influenceurs : 43% des bloggeurs bloguent au sujet de marques et de produits (et aux 2/3 positivement sur des marques auxquels ils adhèrent personnellement). 45% des français déclarent faire confiance aux avis des consommateurs en ligne plus qu’à tout autre média.

    PARTIE V : MESURER ET ANALYSER

    Analyse de la performance : un facteur de réussite clé de l’analyse de la performance est de bien déterminer ses indicateurs clés selon ses objectifs.

    Pour mesurer la saisonnalité, les tendances et les parcours d’achat on peut utiliser Google Trends, Google Tendances de recherche, Google AdWords et Google AdPlanner.

    Pour auditer les conversations et la réputation : Google actualités, Twitter, TrendyBuzz, Sysomos etc.

    Pour mesurer le comportement sur le web : des panels comme Mediametrie et Nielsen NetRatings.

    Pour faire l’analyse de la performance d’un site, les outils site centric comme Google Analytics qui permettent une analyse détaillée sur un site donné.

    L’avènement du « commerce connecté » livre blanc de la FEVAD. Les consommateurs allieront les bons côtés du e-commerce (la recherche, le gain de temps, la disponibilité 24h/24, les recommandations) et la dimension humaine et physique pour plus de proximité (l’échange avec un vendeur expert, la possibilité de voir ou d’essayer un produit, l’immédiateté, la mise en scène du produit etc).

    Les points de vente se repensent, proches de show-rooms séduisants, aérés, et mettant en scène les « best sellers » produits. La technologie en point de vente est là avant tout pour renforcer le rôle du vendeur.

     

    @ Muriel Perret


     POUR ACTION 

    Commenter 

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Livres, publications /
  51. Le bilan de 10 ans de consommation des ménages – Publication des chiffres 2013 de l’Insee

    13 juin 2014

    La publication du bilan 2013 de l’Insee sur la consommation des ménages est naturellement une bonne occasion pour se pencher sur des évolutions toujours aussi structurantes pour les entreprises et les équipes marketing. Nous vous en proposons ici un rapide résumé, autour de deux grandes interrogations : voit-on les signes d’une reprise de la consommation après la baisse historique de 2012 (-0,5%) ? Et quelles sont, sur ces dix dernières années écoulées, les réallocations les plus significatives entre les différents postes de dépenses des ménages français ?

    Une consommation des ménages qui se stabilise en 2013 plus qu’elle ne re-décolle…

    Après une année 2012 particulièrement calamiteuse puisqu’elle s’était traduite par une baisse sans précédent des dépenses des ménages (-0,5%), 2013 n’apporte en réalité qu’un très léger mieux, l’Insee utilisant le terme de stabilisation, avec une progression de 0,2%.

    Et encore ce mieux doit-il être relativisé à double titre :

    -       si l’on regarde le pouvoir d’achat disponible par unité de consommation (dit autrement, si l’on regarde les dépenses par tête), force est de faire le constat d’un nouveau recul avec un -0,6% en 2013, qui succède au – 1,5% de 2012. De fait la consommation par tête n’a pas progressé depuis 2008 !

    -       et par ailleurs, si l’on s’intéresse plus spécifiquement au pouvoir d’achat restant une fois déduites les dépenses « pré-engagées » (dépenses de logement, abonnements de communication ou de télévision, cantine scolaire, assurances,…), le constat est là encore celui d’un recul , avec un pouvoir d’achat individuel « arbitrable » en baisse de 1,3% par rapport à 2012.

    Si l'on regarde donc le pouvoir d'achat "arbitrable" par personne, particulièrement intéressant pour les équipes marketing, le pouvoir d'achat 2013 est en quelque sorte quasiment revenu au niveau de 2006 ! (cf graphe ci-dessous, avec l'évolution en base 100 depuis 1960, sur la base des données Insee)

    Parmi les principales baisses observées en 2013, il faut relever celle du marché de l’automobile, avec une dégradation spectaculaire de l’activité du neuf (-9,7%). L’évolution est également à la baisse pour le marché des produits culturels (-1,2 % en volume sur 2013), avec des évolutions particulièrement défavorables pour le cinéma, les DVD, la presse et les livres. On assiste par ailleurs à un ralentissement de la progression des dépenses associées au logement (+1% en 2013 après le +1,9% en 2012, en volume).

    A l’inverse, les ventes de biens et services téléphoniques ont fortement progressé en 2013, les baisses de prix de consommation téléphonique (-8,7%) ayant été contrebalancées par les ventes de téléphone mobile, avec le boom des smartphones (+43% en 2013 succédant au +66% de 2012). On note également une progression des dépenses pour les assurances (+1,8%), ainsi que les dépenses de santé (+3 ,2%) et d’éducation (+0,5%)

    Toujours dans le cadre de cette comparaison 2013 / 2012, on note une relative stabilité des dépenses alimentaires en volume (+0,8%), avec une progression de la consommation des fruits et légumes (+2,4%), et une baisse des dépenses pour la viande et le poisson.

    Des réallocations de dépenses significatives en l’espace de dix ans

    En 10 ans, les dépenses des ménages qui ont le plus progressé sont clairement celles qui relèvent du logement (location, chauffage et éclairage compris), celles-ci ayant vu leurs poids dans la consommation totale passer de 18,3 en 2003 à 20,3 en 2013. (cf. tableau). On observe également une progression du poste relatif aux Assurances (passé de 2,5% des dépenses à 3%), et à la Santé (de 2,9% en 2003 à 3,2% en 2013)

    A l’inverse, les baisses les plus marquées entre 2003 et 2013 concernent les postes de dépense suivants :

    -       « Loisirs et Culture », qui pesait 7,3% du global en 2003 et n’en pèse plus que 6,2% 

    -       les services de communication, dont le poids dans les dépenses est passé de 2,1% à 1,6% en 2013, notamment du fait de la forte baisse des prix.

    -       l’habillement et les chaussures (avec un poids en baisse de 0,8 point)

    -       le transport, qui pesait 10,4% des dépenses des ménages et n’en pèse plus que 9,9% avec une nette érosion de la part consacrée à l’achat de véhicules

    -       l’équipement du logement, en baisse de 0,4 points

    -       Et enfin l’alimentation, dont le poids est passé de 10,5% des dépenses des ménages à 10,2% entre 2003 et 2013


     POUR ACTION 

    Commenter 

    Télécharger la note de l'Insee

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Livres, publications / Revue de web / Résultats d'études / Les 10 articles les + lus /
  52. « Notre chance est peut-être d’avoir connu la crise plus tôt que nos confrères » - Interview exclusive de Gérard Lopez, PDG de BVA

    22 mai 2014

    Pour les acteurs des études marketing, le cas BVA est auréolé d’un certain mystère. Alors que cette société connaissait les pires difficultés il y a une dizaine d’années, elle est perçue aujourd’hui comme une des entreprises les plus dynamiques du marché avec, entre autres initiatives, l’acquisition de Masters Consultants puis de DMS en 2013, et en Janvier de cette année une annonce qui a fait grand bruit : la reprise de LH2.

    Gérard Lopez, PDG de BVA, répond à nos questions sur le processus d’intégration de LH2 au sein de son groupe, sur les « secrets » de la dynamique de BVA et sur sa vision du marché.

    Market Research News : En janvier de cette année, vous avez pris une initiative marquante pour le marché, avec la reprise de LH2.  Je vous propose que l’on revienne sur les motivations et les modalités d’intégration de cette société au sein de votre groupe. Commençons par la marque LH2 : quel est son devenir ?

    Les choses ne sont pas encore complètement tranchées sur ce point. Au moins pour l’instant, la marque demeure, ne serait-ce que pour honorer un certain nombre de contrats en cours. Elle est la propriété de BVA, sans que nous ayons crée une structure qui aurait pour vocation spécifique de l’abriter. Pour la suite, le champ des possibles est ouvert. Nous étudions plusieurs options, dont celles d’en faire une marque dédiée à l’observation sociétale, mais ce n’est qu’une option possible parmi d’autres.

    Pour les équipes, comment les choses se passent ? Vous avez intégré une trentaine de personnes je crois ?

    Oui, en effet. Elles se sont intégrées assez naturellement dans nos pôles existants. Les spécialistes de l’énergie, de la banque-assurance et des télécoms ont rejoint notre département services. Idem pour la grande-consommation et pour l’opinion. Nous avons également proposé quelques postes à des personnes de back-office, que ce soit dans le domaine des études qualitatives ou à la comptabilité. D’autres postes seront proposés, puisque nous nous sommes engagés, pour nos créations de poste, à donner pendant un an la priorité aux personnes qui n’ont pas été retenues initialement dans notre offre de reprise.

    Quid de LH2 Create, la cellule d’accompagnement stratégique mise en place par LH2 ?

    Geneviève Reynaud, qui était à la tête de cette entité, a rejoint notre structure Qualitative Factory, qui comporte une vingtaine de personnes, et en est devenue la directrice. Elle développe ainsi ce pôle auquel elle apporte des compétences complémentaires. Sandrine Caloiaro qui dirigeait précédemment cette structure a quant à elle pris la direction des études d’Ubisoft.

    Venons-en à vos motivations. Pourquoi BVA a-t-il repris LH2 ?

    Pour le dire simplement, des aspects d’opportunité y ont fortement contribué. Par le passé, ce dossier nous avait été proposé, mais nous n’étions pas intéressés. LH2 est une belle marque, et nous savions qu’il y avait en son sein des professionnels très compétents. Mais les conditions économiques ne s’y prêtaient pas. Les dettes étaient importantes, et le modèle économique à revoir, avec des couts de structure élevés pour les activités de recueil. Cela laissait présager de prendre beaucoup de risques pour un résultat incertain, à un moment où nous étions focalisés sur le rachat de Masters Consultants et de DMS dans le monde du mystery shopping. Et puis les choses se sont précipitées. Il y a eu d’une part le souhait émis par Jean-François Levionnois, que nous connaissions bien, de quitter LH2 suite à des divergences de vues. Nous avons pensé que son expertise dans le domaine de la Customer expérience pouvait nous apporter beaucoup dans le processus d’acquisition de Masters Consultants et de DMS, pour réussir l’arrimage et la construction business. C’est la mission que nous lui avons proposée. Une fois intégré au sein de notre groupe, il nous a sensibilisé à la situation de LH2, et à la qualité des équipes de cet institut. Nous nous sommes donc engagés à réexaminer les choses et à présenter une offre si LH2 se retrouvait devant la barre du tribunal de commerce, à la double condition de ne reprendre ni les dettes, ni le terrain. C’est ce que nous avons fait, en nous rapprochant - à la demande du tribunal - d’une autre société qui était elle intéressée par l’activité de recueil. Mais la réalité est qu’il y a eu très peu de propositions de reprise.

    Il n’y a pas eu d’autres propositions émanant de vos principaux concurrents ?

    Non. Peut-être avons nous pris des risques avec cette reprise. Seul l’avenir nous dira si nous avons pris une bonne décision. Mais le fait est qu’aujourd’hui, nous sommes ravis. Nous avons rencontré une équipe formidable, avec des personnes compétentes et mobilisées, qui s’intègrent très bien, qui contribuent à renforcer nos expertises. Il apparaît que les complémentarités sont plus importantes peut-être que nous ne l’avions imaginées initialement. LH2 avait une expertise grande consommation, qui ne se recouvre que partiellement avec la nôtre, avec une bonne présence sur l’univers du cosmétique là où nous étions plus concentré sur l’alimentaire. Ils nous apportent aussi beaucoup dans le domaine de l’opinion, ou dans les services. Et l’entité LH2 Create s’intègre parfaitement dans la fibre de BVA, avec notre volonté d’aller dans le sens de plus d’opérationnalité et de plus de consulting. En tout cas les choses se passent bien, tant au niveau des équipes qu’avec les clients.

    BVA est créditée d’une très forte dynamique, dans le contexte d’une industrie qui n’est pas au mieux. Quel est le secret de BVA ?

    C’est une vraie question ! (rires). Je crois que beaucoup de choses s’expliquent par ce que nous avons connu en 2002. Quand nous sommes arrivés, Pascal Gaudin et moi, l’entreprise connaissait des difficultés très importantes, avec seulement 13 Millions d’euros de CA, et des comptes qui ont été arrêtés avec plus de 3 millions de perte. Il a donc fallu faire preuve de beaucoup de dynamisme. D’une certaine façon, nous avons connu la crise et la remise en cause du modèle économique avant tout le monde. Il nous a fallu nous atteler très tôt à une réflexion sur nos métiers. Nous avons été contraints de prendre très rapidement des décisions, qui se sont avérées bonnes, avec un moindre dimensionnement de nos structures de terrain. Nous avions aussi cette vision qu’il nous fallait avoir une stratégie d’expertise, d’où notre stratégie d’acquisition. Cela nous a aidé, nous nous sommes focalisés sur les expertises où il y avait de la créativité, de l’innovation. Mais cela nous a aussi obligé aussi à faire des renoncements, à abandonner des activités ou des marchés.

    La redéfinition du modèle économique et la focalisation, c’est ainsi que vous définiriez les composantes du « secret » de la dynamique BVA ?

    Ce sont des composantes essentielles en effet. Mais pour aller chercher du dynamisme, nous avons aussi intégré un certain nombre de PME, en faisant en sorte que leurs dirigeants deviennent managers chez nous. Il y a donc une dynamique entrepreneuriale qui s’est mise en place de par le profil des personnes qui ont été mises à la tête des différentes divisions. Et par contamination, ceux qui n’avaient pas crée d’entreprises sont devenus entrepreneurs dans l’âme. Pour que la recette soit parfaite, il y a également eu la création d’un vrai département Marketing et innovation, placée sous la direction de Richard Bordenave. Beaucoup de gens aspirent de leurs vœux à ce qu’il y ait de l’innovation, de la formation interne, du partage des best practices. Mais le fait est que la meilleure façon d’y arriver consiste à avoir une équipe dédiée à ces enjeux, et qui est là pour décloisonner, pour structurer les démarches d’innovation en établissant des liens efficaces avec le monde universitaire. C’est ce que fait cette direction, en apportant ainsi le liant pour que cette dynamique entrepreneuriale autour de l’innovation et de l’expertise se mette en mouvement.

    La « recette » est donc un assemblage de choses simples : l’esprit d’entreprise, une vision assez claire du marché, la démarche de rassembler des experts autour de la marque BVA et de considérer que l’innovation doit être au centre de nos réflexions. Mais cela implique aussi un management particulier. Beaucoup plus participatif, plus en co-création, en co-participation, en co-management que les modes de management habituels. Cela correspond à une manière de travailler plus horizontale, pour laisser plus de souplesse, de dynamisme et d’énergie au sein des équipes en lien avec le marché.

    Venons-en à votre vision du marché. Si l’on doit évoquer les évolutions les plus vraisemblables pour les 5 à 10 à venir, quelles sont pour vous les lignes de force les plus évidentes ?

    S’il y a bien une évidence partagée par la quasi-totalité des acteurs, c’est que le marché des études traverse une phase de mutation extrêmement importante. Plein de nouveaux acteurs sont en train ou vont apparaître. On parle beaucoup de la big data ; c’est un vrai mot, mais je pense que le vrai enjeu est celui de la structuration de la donnée. Hier, les sociétés d’études avaient pour vocation de fabriquer et de collecter de la donnée. Demain, il va falloir que nous soyons des ingénieurs de la data. En réponse aux interrogations de nos clients, il nous faudra nous poser la question de savoir si les données permettant d’y répondre n’existent pas déjà, dans leurs systèmes d’information ou sur le net, ou bien s’il faut effectivement les créer.  Et cela concernera plein d’enjeux, de la satisfaction des clients à l’innovation. Cela signifie que nous allons de plus en plus utiliser des observations, ce qui s’inscrit complètement dans la dominante philosophique behaviouriste de BVA.

    C’est un changement de métier ?

    Oui, bien sûr. Cela va modifier nos métiers, nos profils, nos prestations. Mais je pense que cela va aussi redonner de la valeur ajoutée à nos activités. Même si le monde des études souffre aujourd’hui, je pense que nous avons énormément d’opportunités. Les SSII ou les Google savent faire de la collecte, du traitement, proposer des modèles ; mais il y aura toujours ce besoin de classer les données, de les hiérarchiser, de comprendre les comportements. Pour piloter un sujet, il faut savoir quelles données sont importantes et comment les interpréter. C’est précisément notre savoir-faire, nous passons notre temps à interpréter, synthétiser les données, à les faire parler, à en faire des données opérationnelles ou stratégiques. Cela restera notre travail, et c’est là que se fera notre valeur ajoutée.

    Un mot enfin sur les principales ambitions de BVA : comment les définiriez-vous ?

    Cette mutation que nous venons d’évoquer est un défi. Elle correspond à une rupture majeure, et elle est source de difficultés pour un très grand nombre d’acteurs. Elle est dans toutes les bouches, mais il ne suffit pas d’en parler, il va falloir trouver les bonnes options pour passer ce cap. C’est une mutation des méthodes, des esprits, des cultures. Cela rejaillit notamment sur les relations entre marketing et informatique, que ce soit chez nous ou chez les annonceurs, avec la nécessité de réconcilier des mondes qui n’ont pas l’habitude de se parler. La question que se pose un peu tout le monde, c’est de savoir par quel bout prendre le problème. Comment allons-nous transformer nos entreprises ? C’est un vrai sujet, qui adresse à la fois des enjeux de recherche et développement, de management, de recrutement. Et de métiers. Doit-on toujours être sur la donnée, doit-on arrêter ? Doit-on la sous-traiter ? La difficulté qui vient se greffer là-dessus, c’est qu’il faut faire des choix au quotidien. Pour un certain nombre de raisons dont les contraintes de continuité statistique ou méthodologique, les appels d’offre que nous recevons font appel à des approches « traditionnelles ». La difficulté pour nous, que n’aurait pas un nouvel entrant, est de trouver la bonne articulation entre l’ancien et le nouveau modèle. Notre enjeu le plus essentiel se joue-là. La recette que nous avons évoquée nous a plutôt réussi jusqu’ici, mais rien n’est jamais définitivement acquis ; il ne faut pas que nous trompions de trop pour réussir cette mutation, qui est LE challenge de la profession et bien sûr aussi le notre.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Gérard Lopez

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  53. Les européens et les français observés au prisme des vacances d’été (résultats d'études)

    20 mai 2014

    Certains comportements de consommation en disent long sur le contexte économique et sur l’état d’esprit des consommateurs. Parmi ceux-ci, la thématique des vacances constitue un prisme d’observation particulièrement intéressant, que ce soit pour apprécier un certain nombre d’évolutions ou pour nous comparer avec nos voisins.

    Deux études récemment publiées nous donnent à ce sujet deux éclairages intéressant à croiser, la première étant la 14ème vague du baromètre Ipsos / Europ Assistance, la seconde émanant quant à elle d’Audirep (pour le compte du cabinet de conseil Simon-Kucher), en étant plus spécifiquement focalisée sur l’impact des promotions sur le comportement d’achat des français.

    De ces deux études se dégagent 7 grands enseignements :

    1. La crise est bien là : une proportion croissante d’européens prévoient de ne pas prendre de vacances

    Les chiffres de l’étude réalisée par Ipsos parlent en effet d’eux-mêmes : 29% des européens prévoient de ne pas prendre de vacances en 2014 (les vacances étant ici définies comme un séjour de 4 nuits ou plus en dehors du domicile pour des motifs non-professionnels). Cette proportion était respectivement de 20% en 2011, 25% en 2012 et 26% en 2013. Il est également à noter que cette érosion du taux de départ concerne plus particulièrement ceux qui ne partent qu’une fois par an.

    Les intentions de départ spécifiquement pour les vacances d’été se maintiennent quant à elles au même niveau qu’en 2013 pour l’ensemble des européens (54%) ; elles restent donc très en retrait des taux observés entre 2007 et 2011, qui étaient compris entre 64 et 67%

    Un bémol néanmoins par rapport à ces évolutions peu favorables : le budget moyen consacré aux vacances d’été reste néanmoins stable (au moins par rapport à l’an dernier), avec une enveloppe moyenne de 2313 euros.

    2. Des inégalités sociales croissantes face aux vacances

    Les femmes et les retraités sont clairement les catégories pour lesquelles la crise se fait le plus durement sentir. Alors que la proportion des individus ne prévoyant pas de prendre des vacances est de 29% (comme évoqué précédemment), elle atteint les 32% pour les femmes (soit + 8 points par rapport à 2013) et les 42% pour les retraités, soit + 10 points là encore par rapport à l’an dernier !

    3. Un écart qui se creuse entre Europe du Nord et Europe du Sud

    A ces inégalités sociales vient en effet s’ajouter une inégalité géographique flagrante et croissante. Celle-ci apparaît dans les chiffres de l’étude Ipsos avec la proportion des intentions de départ, mais aussi et surtout dans les évolutions des budgets prévus spécifiquement pour les vacances.

    Pour cette année 2014, le différentiel de budget prévu entre les pays du nord de l’Europe (Allemagne, Royaume Uni, Belgique, Autriche) et les pays du Sud (France, Italie, Espagne) s’élève en effet aux alentours des 700 €, soit quasiment le double de ce qu’il était en 2008, avant la crise (le différentiel était alors de 370 €)

    Les français restent quant à eux dans une position relativement médiane (c’est bien connu : nous sommes le plus latin de pays du nord et le plus « nordiste » des pays latins), avec un budget légèrement en deçà de la moyenne globale européenne (2227 euros pour les français, à comparer à une enveloppe de 2932 € pour les britanniques et de 1723 € pour les espagnols si l’on ne retient que les deux extrêmes)

    4. Des destinations toujours fortement concentrées en Europe, avec néanmoins une indécision croissante

    L’Europe demeure en effet et de loin la zone de destination privilégiée des européens, pour 76% des personnes interrogées par Ipsos, même si c’est un peu moins vrai qu’en 2013 (81%). L’attirance pour les pays du Sud ne faiblit pas, la France et l’Italie restant les deux pays les plus prisés avec 17% des intentions de départ, devant l’Espagne (13%) et les autres pays méditerannéens (Crète, Grèce, Croatie,…). Il est également à noter que 42% des européens envisagent de passer leurs vacances dans leur propre pays, les deux pays à égalité de ce point de vue de là restant la France et l’Italie (64%)

    Mais l’indécision progresse : 15% des personnes interrogées ne se prononcent pas sur leur destination de vacances. C’est donc 5 points de plus en seulement en un an, cette progression devant être mise en parallèle à la fois d’une plus grande incertitude quant à la perspective de pouvoir réellement partir, mais aussi au souhait croissant des consommateurs de profiter des bonnes affaires de dernière minute.

    Les résultats de l’étude mettent en effet en évidence une petit retournement de tendance pour ce qui est de la proportion de vacances « de dernière minute » (28%), en progrès de 3 points après deux années de baisse. Ce retournement est même assez spectaculaire chez les français (+10 points)

    5. Une utilisation de plus en plus massive d’internet pour préparer ses vacances

    Internet est clairement devenu l’outil privilégié pour préparer ses vacances : source Ipsos là encore, 59% des européens déclarent aujourd’hui réserver leurs vacances sur internet, alors que cette même proportion n’était que de 28% en 2005.

    Cet usage d’internet est particulièrement motivé par le désir de composer des vacances « à la carte », en réservant des prestations une à une « en fonction des besoins » (72% des interviewés) plutôt que via des offres packagées.

    6. Des français qui ont de plus en plus recours aux promotions

    C’est là un des éclairages essentiels de l’étude réalisée par Audirep pour le cabinet Simon-Kucher, qui signale que plus d’1 français sur 2 optant pour des solutions de type hôtel ou club ont bénéficié de promotions en 2013. Ce recours croissant aux promotions explique notamment le fait que les réservations se font de plus en plus tard, 32% des français déclarant réserver « plus tard qu’il y a 4 ou 5 ans ».

    La plus grande attractivité des offres de dernière minute est naturellement la première raison mise en avant par les interviewés pour ces réservations tardives, le phénomène s’expliquant néanmoins aussi par une plus grande incertitude à la fois quant à la date possible de départ, mais aussi quant à la possibilité économique de pouvoir le faire (en cohérence là aussi avec l’éclairage donné par Ipsos)

    7. "Trop de promotions" peut aussi tuer la promotion

    C’est le second enseignement important de l’étude Audirep – Simon-Kucher, qui met en avant les limites de ces pratiques. Celles-ci ne sont en effet pas simples à gérer pour les professionnels du secteur, qui sont pénalisés par un manque de visibilité quant au taux de remplissage de leurs infrastructures (et sont donc naturellement tentés de renforcer encore les actions de promotion, alimentant ainsi un cercle vicieux).

    Mais la perception de ces pratiques est également assez ambivalente pour les consommateurs. 48% des clients interrogés déclarent en effet ne pas savoir identifier le meilleur timing pour bénéficier des meilleurs prix, ce qui traduit le risque manifeste d’une inefficacité de celles-ci, éparpillées tout au long de l’année et démultipliées dans les quelques semaines précédant les congés d’été.

    La mesure de cette emprise problématique des promotions sur les vacances se résume au fond assez bien avec ces deux chiffres :

    -       37% : c’est la proportion de français qui préféreraient voir moins de promotions, pour pouvoir y gagner… sur la clarté des prix

    -       Mais 42% déclarent aussi qu’ils ne réservent plus hors promotion, ce chiffre témoignant du caractère évidemment addictif de ces pratiques.

    Nota :

    L’enquête Ipsos réalisée pour Europ Assistance a été menée auprès d’un échantillon de 3505 Européens âgés de 18 ans et plus (Français, Allemands, Britanniques, Italiens, Espagnols, Belges et Autrichiens), du 10 février au 21 mars 2014. Cette enquête a été conduite par téléphone, au domicile des personnes interrogées et selon la méthode des quotas (sexe, âge, profession du chef de ménage, région et taille d’agglomération). Pour retrouver la présentation des résultats de l’étude, cliquer ici : Baromètre Ipsos / Europ Assistance 2014


    L’étude réalisée par Audirep pour Simon-Kucher & Partners (Réservations de vacances d’été des Français – Quel impact des promotions ?) a été menée sur un échantillon de 1000 personnes représentatif de la population française > 18 ans – avril 2014 – panel Web .


     POUR ACTION 

    Commenter 

    • Contacter les responsables de ces études :

    - Ipsos : @ Clotilde Combe

    - Audirep : @ Pierre Doignies

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Résultats d'études /
  54. TrialPanel : quand 300 000 consommateurs-testeurs élisent leurs innovations produits préférées…

    15 mai 2014

    Il y a quelques semaines, un certain nombre d’innovations-produits ont été primées en se voyant attribuer le label « Préféré par les consommateurs », ce qui n’a rien d’anodin si l’on tient compte du fait que 300 000 consommateurs ont été intégrés dans la démarche avec environ 1200 produits testés et plus de 950 000 évaluations. Mais ce prix n’est en réalité que la face la plus visible d’un écosystème particulièrement ambitieux ayant pour nom TrialPanel et faisant la jonction entre les marques, les consommateurs, et un distributeur (Carrefour), la démarche d’études étant quant à elle orchestrée en France par l’institut Repères.

    Patricia Florès, Consumer & Shopper Insights Director France, qui dirige cette activité au sein de Repères, répond aux questions de MRnews pour mieux comprendre la mécanique de cette plateforme TrialPanel.

    Market Research News : Comment définiriez-vous en quelques mots ce qu’est TrialPanel ?

    Patricia Florès : TrialPanel est un outil, une plateforme tripartite entre les marques, les distributeurs et les consommateurs. Cet outil a été lancé par une société argentine, Brand Value, puis a été déployé en France en avril 2013, avec un distributeur partenaire exclusif, Carrefour, et un partenaire Etudes : Repères.

    Quel est le principe général de cette plateforme ?

    Fondamentalement, il consiste à apporter de la valeur aux différentes parties prenantes, autour de trois grandes composantes. Au cœur du dispositif, il y a une mécanique de collecte massive de données d’études marketing, en total respect avec le code déontologique Esomar. Il y a naturellement une composante d’analyse, pour aider en particulier les marques de fabricants dans leur processus d’innovation. Mais il y aussi une dimension importante de communication - et même d’amplification - avec une mise en avant auprès du Grand Public des produits et des marques, via le site monavislerendgratuit.com, où sont postés certains des commentaires des consommateurs sur les produits. Le couronnement de cette « amplification » étant la récompense de produits et marques qui ont été préférés par ces consommateurs, via un site dédié (prefereparlesconsommateurs.com) et avec la remise d’un prix.

    Comment cela se passe concrètement ? Je suis un consommateur : comment suis-je intégré au sein de ce dispositif ?

    Les consommateurs associés à cette démarche sont les clients du partenaire distribution exclusif de la plateforme, qui est donc Carrefour pour la France. Les clients de Carrefour sont donc exposés à des publicités véhiculant le message suivant : « Donnez votre avis et profitez de centaines de produits gratuits ». Ils sont invités à se rendre sur le site internet monavisalerendgratuit.com. Lorsqu’ils sont connectés, on valide le fait que leur hypermarché habituel fait bien partie de la liste des 105 points de vente participant à l’opération (c’est à peu près la moitié des hyper-marchés Carrefour). On leur demande le numéro de leur carte de fidélité, ou bien on leur crée si besoin. Et ils renseignent leur profil et leurs habitudes d’achat. Ils sont ainsi inscrits et, à partir de ce moment-là, ils reçoivent donc des e-mails les invitant à tester de nouveaux produits. En moyenne, ils reçoivent deux e-mails par semaine, avec le plus souvent 3 produits proposés en test pour chaque mail. Un an après le démarrage de l’opération, 300 000 consommateurs sont d’ors et déjà inscrits, l’opération ayant fait l’objet d’un effort de recrutement important de la part de Carrefour, et ayant aussi bénéficié d’un excellent bouche à oreille.

    Les consommateurs testent donc gratuitement les produits ? Est-ce qu’il n’y pas un risque d’avoir affaire à une clientèle atypique, particulièrement attirée par cette possibilité de consommer gratuitement des produits ?

    Le programme a été défini de sorte à contourner ce risque de ne recruter que des « promophiles », qui est bien sûr à prendre en compte. Lorsque le consommateur s’inscrit, il lui est attribué un portefeuille de 450 points à dépenser. Chaque produit proposé en test a une valeur. Pour donner un ordre de grandeur, une sauce tomate vaut environ 100 points, le nombre de points étant déterminé en proportion de la valeur faciale du produit. Les consommateurs vont donc devoir faire des arbitrages, en fonction de leur intérêt affectif ou « fonctionnel » pour les produits. Lorsqu’ils reçoivent les mails d’invitation, ils découvrent ainsi les différents produits proposés en test, avec le nombre de points qui leurs sont associés, un visuel, un « argumentaire » de présentation du produit et éventuellement une publicité.

    Et une fois qu’ils ont choisi le produit qu’ils souhaitent tester ?

    La première étape pour eux consiste à répondre (sur le site monavisalerendgratuit.com) à un questionnaire pré-usage, qui nous permet d’identifier leurs comportements et leurs attitudes associées à la catégorie et à la marque (quels achats, quels comportements vis à vis des marques concurrentes, à quel prix ils s’attendent de trouver le produit, qu’est-ce qu’ils en imaginent, quelle image ils ont de la marque,…). Ils reçoivent un coupon avec le code-barre du produit. Ils vont ensuite dans le lieu de vente qu’ils nous ont désigné comme étant leur hypermarché habituel, et ils font leurs courses normalement, ce qui est un point auquel nous tenons beaucoup. Ils trouvent sur leur parcours des stops rayons, des balises, qui ont été mises en place pour les aider à identifier les produits sachant que l’on ne modifie pas la mise en linéaire des produits. En caisse, ils vont payer leurs achats encore une fois « normalement », sauf pour les produits en question pour lesquels le règlement se fait via la remise des coupons. Là encore pour nous assurer d’avoir affaire à de réels parcours d’achats, le montant global des achats doit être au minimum de 30 euros. De fait, le ticket moyen est de 98 euros, ce qui est parfaitement cohérent avec les moyennes habituellement observées en hypermarché.

    Ils ramènent donc le ou les produits à la maison, et ceux-ci sont donc consommés au sein du foyer…

    Exactement. Les consommateurs utilisent les produits en situation réelle, et à l’issue de cet usage, ils se reconnectent au site monavisalerendgratuit.com pour répondre à un questionnaire post-usage, avec des modalités de contrôle qui permettent de s’assurer de la cohérence et du sérieux de ses réponses. Les consommateurs sont naturellement incités à donner leur avis, ne serait-ce que pour se voir attribuer de nouveaux points et pouvoir ainsi continuer à tester de nouveaux produits.

    Si l’on se met maintenant du coté des marques, des fabricants, à quoi ont-ils accès ?

    Les fabricants qui ont négocié leur participation au programme avec Carrefour ont accès à deux grands types d’informations et d’analyse..

    En effet, le questionnaire post-usage que nous utilisons est très complet, on y retrouve en post-usage tant la satisfaction et le niveau de préférence pour le produit, qu’une analyse organo, packs, rapport qualité prix, questions ouvertes entre autres. Et bien sûr l’intention d’achat, mesurée « en spontané » dans un premier temps, puis après rappel du prix, de sorte à appréhender l’élasticité-prix du produit testé par rapport aux concurrents. Nous avons inclus un autre indicateur important, la facilité à repérer le produit en magasin (en benchmark avec les mesures de notre banque de données), qui est souvent un enjeu de discussion important entre fabricants et distributeurs.

    Par conséquent, en « standard », les fabricants reçoivent systématiquement un résumé des performances de leur produit sous forme de KPI's comparés aux scores des produits de même catégorie.

    Ensuite, au-delà de ces indicateurs standards, les fabricants ont également la possibilité d’avoir une analyse complète de leur mix via les résultats détaillés du questionnaire, et même d’inclure des questions spécifiques sur leur produit (de type organoleptique par exemple). Ils se tournent vers nous pour se donner toutes les chances de bien comprendre les raisons du succès ou de l’insuccès du produit, que ce soit au niveau formule produit, niveau perçu du prix, profils de shoppers, ou pack

    Comment définiriez-vous les avantages les plus significatifs qu’offre cette mécanique aux fabricants en comparaison avec les études les plus classiquement utilisées ?

    Avec un tel dispositif, nous sommes sur des volumétries extrêmement importantes. En un an, nous avons testé 1700 produits différents (soit 100 à 120 produits par mois), sur 300 catégories et pour 400 marques. On dépasse le million de questionnaires post-usage, avec des tailles d’échantillon qui gravitent autour de 1500 personnes par produit testé alors que pour un concept use test classique, les bases sont plutôt de 150 à 200 personnes. Le fait de travailler avec de tels volumes présente de très gros avantages. Cela autorise des analyses très fines par sous-segments de clientèle, bien plus que ne le permet habituellement un concept-use-test et tout en étant dans un principe de réalité supérieur. Mais il faut bien sûr tenir compte qu’un concept use test est par définition un pré-test, alors que nous sommes là dans des conditions de post-tests.

    Et en comparaison avec les données de panels ?

    J’allais y venir. L’autre avantage associé à cette taille d’échantillon, c’est la rapidité des éclairages, notamment en comparaison avec les éclairages issus des panels consommateurs. Très vite, dès qu’une centaine d’interviews a été réalisée, le fabricant sait globalement ce qu’il en est de la performance de son produit relativement aux produits concurrents par les KPI’s. Et toujours à la différence des panels, il dispose d’un éclairage précieux pour comprendre les raisons consommateur de la performance ou de la sous-performance du produit. Il sait en particulier s’il y a un problème de type « tactique » tel que la visibilité du produit en rayon (auquel cas il peut se tourner vers le distributeur), ou bien le niveau de prix perçu. Ou bien s’il y a un problème de fond quant à la validité du concept-produit lui-même. Cette rapidité est bien sûr une composante extrêmement importante dans le contexte de la grande distribution où le déréférencement peut tomber très vite, en particulier dans des rayons très « encombrés » comme celui des produits frais.

    J’imagine que l’outil présente néanmoins des limites. Est-ce que la nécessité de s’en tenir au périmètre de Carrefour n’est pas un obstacle pour répondre à certains besoins ?

    A priori, cela peut apparaître comme une limite. Mais techniquement, nous ne l’avons jamais perçu ainsi, vu qu’en France, les shoppers fréquentent 5 enseignes en moyenne dans une année. Nos consommateurs ne sont donc probablement pas exclusifs à Carrefour.

    Et en termes de cibles, avec 300 000 personnes, on a vraiment latitude à trouver toutes les catégories de clientèle, même si notre panel tend à comporter moins de seniors que la moyenne. D’autant plus qu’en incitant les consommateurs à arbitrer pour tester les produits qui les intéressent vraiment, les échantillons reflétent en fait les acheteurs potentiels du produit, ce qui est le plus important.

    Concernant les limites, j’évoquerais plus les composantes intrinsèques du produit : même si l’outil est très réactif, nous sommes bien dans une logique de post-test, et non de pré-test. On peut aussi évoquer le fait que pour certains fabricants, les décisions se prennent à un niveau mondial, international, alors que cet outil est plus local dans son implémentation.

    Il est local dans son fonctionnement, tout en étant déployé dans plusieurs pays…

    Absolument. Il a originellement été lancé en Argentine, avec Walmart. Il est présent en France depuis un an, et il a également été mis en place en Belgique, également avec Carrefour.

    Enfin en termes de niveau de coût de ces éclairages pour les fabricants, on se situe vers quels niveaux ?

    Le coût de l’intégration dans la plateforme est géré par Carrefour avec les fabricants et nous n’en connaissons pas les conditions. Mais sur la partie qui nous concerne, l’analyse complète des performances du mix, nous sommes sur des bases de 6 à 12 K€, qui sont donc extrêmement compétitives en termes de valeur ajoutée - prix.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Patricia Flores

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Innovation / Interviews / Méthodologie /
  55. « Socio Logiciels a vocation à occuper une place centrale sur le marché des études marketing » - l’interview exclusive de son nouveau directeur général, Bruno Colin.

    13 mai 2014

    Socio Logiciels a jusqu’ici occupé une place à part dans l’univers des études marketing. Avec un statut de spécialiste « historique » du traitement et de l’analyse des données, devenu leader indiscuté dans son domaine sous la direction de Christian Delom et Jacques Paget. Et aussi avec la discrétion qui sied souvent aux techniciens.

    Mais la page se tourne pour cette société, avec le grand enjeu du big data, un changement d’actionnaires (suite au rachat de la structure par le groupe NP6 en 2013), et l’arrivée aux manettes de son nouveau directeur général, Bruno Colin, qui répond aux questions de Market Research News.

    Market Research News (Thierry Semblat) : Si mes renseignements sont exacts, vous avez 55 ans, êtes titulaire d’un diplôme d’ingénieur en électronique et d’un MBA de finance. Et vous avez passez l’essentiel de votre vie professionnelle dans les études marketing en ayant travaillé successivement pour Nielsen, Risc International, Médiamétrie, SECODIP, TNS Sofres, GFK. Depuis quelques mois, vous êtes le nouveau directeur général de SocioLogiciels. Comment faut-il définir votre parcours ? Est-ce l’itinéraire d’un éclectique ? Celui d’un chasseur de primes ? Ou dit autrement, qu’est ce qui fait courir Bruno Colin ?

    Bruno Colin : Si c’était l’itinéraire d’un carriériste, je pense qu’il m’aurait quand même mené ailleurs (rires). Le fait est que je suis quelqu’un de très curieux, ayant la qualité ou le défaut d’être un touche à tout. Pour vous dire la vérité, je me pose encore la question de savoir ce que je ferai quand je serai grand ! J’ai découvert le métier des études par hasard, suite à un entretien groupé que je m’étais décidé à passer uniquement pour me roder à l’exercice après deux ans passés comme professeur de mathématiques en Côte d’Ivoire.  Mon idée initiale était plutôt de rentrer dans une banque pour y faire de la finance. Il se trouve que cet entretien était organisé par Nielsen, qui m’a fait une proposition d’embauche, que j’ai acceptée. J’y ai rencontré un bon nombre des meilleurs chercheurs français et américains de l’époque qui m’ont quasiment tout appris dans le domaine de la modélisation. Par la suite, j’ai continué à faire le touche à tout, en me laissant guider par ma curiosité pour le commercial, puis pour les médias, les panels, et ainsi de suite. Mon parcours s’est fait ainsi, par le hasard de ma curiosité et des rencontres que j’ai pu faire.

    Mais vous êtes toujours resté dans le domaine des études…

    Oui. Je me suis plu dans les études parce que c’est un métier d’hommes, un métier où les relations humaines sont sans doute ce qu’il y a de plus important. Et puis le métier des études m’est apparu à la fois riche, multiforme et  passionnant, qui demande avant tout du pragmatisme, du bon sens. C’est la raison pour laquelle je ne me retrouve pas dans ces séparations qui sont souvent faites entre le quali et le quanti, l’adhoc ou le panel, qui visent la même finalité. Tout cela fait partie d’un même ensemble. Avec le big data, qui n’est à mon sens pas une révolution, on a bien affaire à ce grand tout où l’on retrouve du verbatim, du panel, de l’ad’hoc, de l’attitude, de l’exogène, de la météo... On est au cœur de la vocation même des études de marché.

    Mais pourquoi Socio ? Parce que le big data ?

    Il se trouve que mon parcours m’a permis de toucher à beaucoup de choses dans des sociétés différentes : les problématiques de médias, d’organisation, le conseil. Etre ici revient à réunir tout cela dans un seul endroit, en y ajoutant le fait qu’il y a tout à faire ou presque, qu’il s’agit d’une entreprise d’hommes, à taille humaine et avec de grandes ambitions. Je pense réellement que nous avons une position assez géniale, au centre de la donnée qui est le sens même des études de marché, et en position centrale face aux différents acteurs que sont les instituts, les prestataires et les annonceurs. Nous sommes stratégiquement au centre, là où les choses se passent. Avant, le rôle des études était essentiellement pensé dans l’optique du recueil des données. Aujourd’hui, les données sont là ; elles sont  beaucoup moins couteuses, voire gratuites. La question est de savoir comment les utiliser. C’est précisément là que nous avons un rôle à jouer. Donc voilà pourquoi Socio.

    Si l’on se projette dans les 5 ou dix ans à venir, quelles sont les grandes lignes d’évolution du marché des études ?

    Ce n’est pas une question très facile, beaucoup de tendances se sont dessinées dans les deux dernières décennies. La nature et l’écosystème du marketing devient extrêmement complexe ; cela donne une prime importante aux spécialistes. Il me semble que l’on devrait allers vers une configuration plutôt triangulaire avec, à la base, des multinationales plutôt focalisées sur l’acquisition de données (qui seront sollicitées comme une « commodité » pour recueillir des informations dans 80 pays s’il le faut par exemple). A l’étage au-dessus, j’imagine des sociétés plus spécialisées dans l’utilisation des données, par secteur. Et encore au-dessus, des sociétés capables d’agréger et d’ingérer une grande variété d’informations et d’analyses, et de produire des recommandations. En tout cas, on peut imaginer une configuration qui tende vers cela.

    Socio Logiciels se retrouve donc avec à sa tête un nouveau patron, dans de nouveaux très beaux bureaux. On change tout pour repartir à zéro ? On garde quoi ?

    On garde l’ADN. L’essence même de Socio, ce sont des gens qui adorent leur métier, qui vivent dans la donnée, la comprennent et disposent d’un capital d’expériences sur des milliers de sujets. Le seul vrai changement au fond, c’est le fait que nous soyons à un tournant qui oblige à s’organiser plus. C’est un de mes objectifs essentiels, en partant de mon expérience, que de construire une organisation à la fois souple et professionnelle, mais qui conserve cet ADN. Socio Logiciels travaille de plus en plus en direct avec les annonceurs, qui représentent aujourd’hui 60% de notre activité). Leurs problématiques sont extrêmement diverses et variées, ce qui n’est pas compatible avec une organisation statique de notre côté. Nous devons donc de plus en plus systématiquement fonctionner en mode projet, en mobilisant à chaque fois les compétences nécessaires compte tenu des besoins des clients. Mais il y a aussi la volonté de notre part de pousser plus l’accompagnement, l’insight. Nous devons être un partenaire, capable d’accompagner nos clients sur des problématiques de compréhension, et ne pas se limiter à une fonction de back office uniquement capable de faire le traitement.

    Cela résume aussi ce que vous souhaitez changer dans l’image de Socio Logiciels ?

    Nous devons manifester ce sur quoi nous allons : plus d’ouverture, et plus de dynamisme. Nous avons vocation à être plus visible sur le marché, à avoir un point de vue et à le faire savoir, quitte à être dissonant par rapport à ce qui se dit, par exemple sur la tarte à la crème qu’est le big data.

    C’est un sujet sur lequel vous aimez bien mettre les pieds dans le plat… Je pense à votre intervention dans le cadre de la dernière Journée Nationale des Etudes (de l’Adetem), ou à l’interview de Thierry Vallaud dans le dossier que nous avons consacré à ce thème.

    Le big data me fait penser à « 2001, l’odyssée de l’espace », avec l’image de ce monolithique qui arrive un jour de nulle part, et de ces homo sapiens qui tournent autour en se demandant ce que cela peut bien être. Le big data, c’est un peu cela. Les gens tournent autour en se demandant ce que cela veut dire. En réalité, c’est un nouveau mot appliqué à une réalité déjà ancienne, et qui renvoie à des évolutions très naturelles comme le fait que les consommateurs interagissent plus avec les marques et leur communication (et donc que les relations « causales » traditionnelles se sont complexifiées), que la donnée est volumineuse (ce n’est pas nouveau), que notre monde numérique génère en continu de l’information dorénavant déstructurée. Il nous faut en effet prendre la mesure de cela, pas à pas. Les annonceurs nous sollicitent aujourd’hui pour échanger sur ces questions, pour mieux appréhender ce big data et  surtout comment s’en servir. La demande est d’abord une demande de pédagogie. Et c’est bien là où nous intervenons, pour imaginer avec nos clients ce que l’on pourrait faire, plutôt que d’essayer à tout prix de leur vendre des outils.

    Quels sont les plus gros challenges que vous entrevoyez dans votre mission ?

    Il y a un enjeu excessivement important pour nous autour de l’accessibilité des données. Par essence, celles-ci sont multi-sources. Elles proviennent des études, mais aussi des CRM, du e-marketing, du surf. Les clients commencent à se rendre compte qu’ils sont assis sur un tas d’or (potentiel), avec de la donnée qui se génère quasiment d’elle même. Mais elle est complètement déstructurée et ils ne savent pas trop comment l’utiliser. Le souci, c’est que cela peut nous faire perdre un temps fou. Il faut donc que nous aidions les annonceurs à mieux structurer leurs données, l’idée étant d’aller vers des fonctionnements en mode service (SaaS), avec des plateformes intelligentes et conviviales où sont déposées leur données et auxquelles nous accédons à des fins d’analyse.  Ce sont ces étapes-là qui vont être difficiles : comment aider les annonceurs en leur proposant l’aide d’une DMP (Data Management Platform dans le jargon « big ») en mode SaaS, après que les prestataires informatiques les aient parfois un peu menés en bateau…

    Qui définiriez-vous comme étant sont vos principaux concurrents ?

    Nous avons affaire à une concurrence assez multiforme, avec de nombreux acteurs qui vendent de la ressource statistique ou bien qui sont spécialisés dans l’intégration de données, mais qui sont limités dans leurs compétences sur les problématiques marketing. Nous nous retrouvons aussi de plus en plus face à des sociétés de conseil plus traditionnelles, qui se découvrent spécialistes de la « data ». Plutôt que d’être en compétition frontale face à ces acteurs, je suis plus enclin à privilégier des partenariats intelligents avec eux. Si je sais que tel acteur est en train de travailler sur une proposition mais ne dispose pas de tous les savoir-faire nécessaires, pour quoi ne pas faire une alliance avec lui pour mieux combiner nos compétences respectives ? Je pense que c’est un peu le sens de l’histoire, toujours avec cette logique de mode projet que j’évoquais intra Socio, mais qui s’applique aussi très bien avec le monde extérieur. Ce sont des fonctionnements qui supposent bien sur une déontologie irréprochable, et un vrai culte de la confidentialité. Ce qui est notre quotidien.

    La concurrence risque quand même d’être particulièrement âpre, en particulier autour de l’enjeu du big data…

    C’est vrai. Les challenges sont difficiles, mais nous avons de très belles cartes à jouer. C’est un contexte stimulant. Je trouve en tout cas ces perspectives extrêmement excitantes, le sentiment pour moi étant d’avoir rajeuni de vingt ans depuis que je suis rentré chez Socio !


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Bruno Colin

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  56. Etudes marketing : Les 7 tendances clés pour 2014, résultats du Baromètre Annuel Market Research News / Callson

    17 avr. 2014

    Quelles sont les orientations budgétaires des entreprises en matière d’achats d’études de marché pour 2014 ? Quelles thématiques devraient-elles privilégier ? Quelles techniques prévoient-elles de tester et d’utiliser ? Quels types de sociétés devraient avoir leur préférence sur cette année en cours ?

    Nous vous proposons de découvrir, en réponse à ces grandes questions, les résultats de la 3ème édition de notre Baromètre Market Research News – Callson, réalisé du 30 janvier au 17 mars 2014 auprès d'un échantillon de 301 acheteurs d'études représentatifs du marché (Directeurs ou responsables marketing, directeur ou responsables des études de marché,…) avec le soutien d'Esomar et de Syntec Etudes Marketing et Opinion.

    Les 7 tendances clés qui se dessinent pour cette année sont les suivantes :

    1. Une parfaite stabilité des budgets d'études marketing en 2014, après deux années tendues

    Dans un contexte économique toujours aussi difficile, la stabilité est de mise cette année pour les budgets alloués par les entreprises aux études marketing : 57% d’entre elles ont fait le choix d’une reconduction à l’identique des budgets 2013, les 43% restants se répartissant à parts égales entre des augmentations et des diminutions. Après deux années difficiles, cette stabilité des budgets peut laisser présager une certaine « respiration » du marché. Les contraintes sont là, mais l’état d’esprit dominant s’inspire d’une dynamique de perfectionnement de la connaissance des marchés et des clients, avec une orientation « business » de plus en plus manifeste.

    2. Une pause sur le mouvement d’internalisation des études identifié en 2013 (et de montée en puissance du « do it yourself »)

    Nous avions observé en 2013 une nette propension des entreprises à internaliser un plus grand nombre de projets d’études. Ce phénomène ne se confirme pas en 2014, les orientations allant plutôt dans le sens d’un statu quo, avec ni plus ni moins d’internalisation qu’en 2013. Certaines entreprises auraient-elles mesuré la limite du do-it yourself et reconsidéré l’intérêt de faire appel à des spécialistes externes ? Même s’il convient d’être prudent, c’est une hypothèse que l’on peut formuler.

    3. La satisfaction-client, l’innovation et la veille « marché » ressortent à nouveau comme les thèmes qui devraient être priorisés par les entreprises

    Dans ce contexte de stabilisation des budgets d’études, les arbitrages devraient continuer à être particulièrement favorables pour ces 3 grands thèmes incontournables, les plus essentiels pour les entreprises dans une perspective business : connaître ses cibles, définir les bonnes offres, et satisfaire / fidéliser les clients. En comparaison avec 2013, des inflexions sont à prévoir, avec un cycle à nouveau favorable pour les projets relatifs à la connaissance des cibles (segmentations de marché, Usage et Attitudes,...). A contrario, la forte dynamique de l’an dernier pour les études de type « climat interne » semble s’essouffler. Il se confirme enfin des perspectives plutôt orientés à la baisse pour les études publicitaires (le phénomène devant être mis en regard des stratégies d’investissements des annonceurs) ainsi que pour les éclairages socio-culturels.

    4. Les études qualitatives devraient avoir le vent en poupe en 2014 ! Et côté quanti, le on-line s’impose de plus en plus dans les modes de recueil.

    Dans les arbitrages techniques des entreprises acheteuses d’études, une prime semble en effet se dégager en faveur des études qualitatives, 34% des interviewés déclarant une orientation à l’avantage de celles-ci, contre 22% à l’avantage du quanti (l’équlibre restant à priori inchangé pour les 44% restants).

    Pour ce qui est des modes de recueil lors des études quantitatives, le on-line est clairement majoritaire face au téléphone en 2013, et sa montée en puissance devrait logiquement se poursuivre en 2014 au vu de l’attitude des « acheteurs » d’études.

    5. Une année 2014 propice à une forte diffusion des études qualitatives on-line et de l’analyse des verbatims sur le web

    Il se confirme en effet un phénomène de diffusion pour les études qualitatives on-line ainsi que pour l’analyse des verbatims provenant du web (réseaux sociaux, forums), déjà utilisées par respectivement 45 et 41% des responsables études interrogées, cet usage étant manifestement appelé à s’accroitre encore. L’utilisation à des fins d’études des communautés on-line et des mobiles semble également avoir fortement progressé, avec des taux d’usage déclarés à 41 et 33%

    L’intérêt semble enfin important pour les études quantitatives sur panels propriétaires et pour les approches Big Data, avec un usage prévu en test pour 22 et 13% des interviewés (en incrément par rapport à l’usage existant)  

     6. Une demande de plus en plus soutenue pour des éclairages immédiatement utilisables

    Plus d’études immédiatement utilisables  (versus des études de fond dont d’usage est nécessairement plus diffus), mais paradoxalement (?) plus d’études stratégiques (versus les études tactiques)… La demande des entreprises continue à évoluer selon des termes toujours aussi difficiles à satisfaire par les sociétés d’études, avec manifestement une belle prime à la clé pour celles qui sauront inventer les raccourcis intelligents !

     7. Une attitude toujours plus favorable des acheteurs d’études vis à vis des petites sociétés, avec une prime pour les spécialistes.

    Il peut y avoir des décalages entre les attitudes et les comportements, , et il ne faut donc pas tirer de conclusions trop définitives quant aux chances de succès des grands instituts, qui ont des arguments solides à faire valoir. Mais il se confirme néanmoins une inclinaison particulièrement favorable des acheteurs d’études vis à vis des petites structures et des spécialistes, ce qui laisse entrevoir de belles opportunités pour celles-ci, et à contrario une bagarre concurrentielle toujours plus sévère au sein du top 10 des plus grandes sociétés du secteur, dans la continuité de 2013, mais dans un contexte de stabilité des budgets qui devrait néanmoins apporter un peu plus d’oxygène.

     

    Cliquez ici pour télécharger la présentation des principaux résultats 

    Notes :

    (1) ESOMAR est la 1ère organisation mondiale dans le domaine des études de marché (coauteur avec l'ICC du code déontologique de la profession). Elle regroupe plus de 4900 professionnels des études de marché répartis dans plus de 130 pays.

    (2) SYNTEC Etudes Marketing et Opinion est le syndicat représentatif des professionnels des études en France. Il a pour objet la représentation, la promotion et la défense des intérêts collectifs des acteurs des études. Il regroupe plus de soixante entreprises, allant de très petites structures jusqu’aux plus grands opérateurs du marché, couvrant collectivement l’ensemble des prestations d’études marketing et de sondages d’opinion.

    (3) L'étude a été réalisée par téléphone par la société Callson auprès de 301 personnes responsables (pour tout ou partie) de la gestion des études marketing au sein de leur entreprise, avec la participation de sociétés présentes sur l'ensemble des secteurs d'activité : Grande Consommation (Groupe Bel, Colgate Palmolive, Danone Eaux, Fleury Michon, Heineken, Henkel France, Kraft Foods, Lactalis, Nestlé, Pernod-Ricard,…), NTIC (SFR, Orange, NRJ Mobile,…), Banques-Assurances (Société Générale, , Cetelem, Crédit Agricole, Groupama, HSBC, Maaf Assurances,…), Distribution (Auchan, Blanche Porte, Carrefour, Castorama, Intermarché, Sephora,…), Transport et Automobile (Aéroports de Paris, Groupe Wolswagen, Peugeot, Véolia Transport,…). Dans le cadre de l’étude, il a été tenu compte du poids de ces différents secteurs d’activité dans le domaine des études de marché (source Syntec Etudes Marketing et Opinion)


     POUR ACTION 

    Commenter 

    • Contacter les réalisateurs de l'étude : @ Thierry Semblat (MRnews) /  @ Laurent Poggi (Callson)

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Vie de la profession / Résultats d'études /
  57. Du branding au e-branding : internet révolutionne-t-il les règles de la stratégie de marque ? Interview de Georges Lewi

    14 avr. 2014

    Avec la publication de son dernier ouvrage, E-branding. Stratégies de marque sur internet, Georges Lewi se penche sur une problématique essentielle pour les nombreux acteurs impliqués dans le management des marques, que celles-ci soient nées avec internet ou bien dans le désormais « vieux » monde d’avant.

    Internet bouleverse-t-il donc les règles de la stratégie de marque et du branding et jusqu’à quel point ? En quoi ? Ce sont les questions de fond qui ont donné la matière à ce livre et sur lesquelles nous revenons avec son auteur, Georges Lewi.

    Thierry Semblat - Market Research News : Qu’est-ce qui vous a amené à écrire ce livre, pourquoi en avez-vous ressenti le besoin ?

    Georges Lewi : Le besoin est né de ma propre interrogation face au développement d’internet. A l’évidence, internet pose beaucoup de questions pour les marques. Mais il y avait pour moi une grande interrogation sur la portée de ces changements. Les règles les plus essentielles qui s’appliquent aux e-brands sont-elles peu ou prou les mêmes que celles qui régissent les marques « classiques », ou bien sont-elles radicalement différentes ? J’ai pris conscience que personne n’avait abordé la question ainsi, sous cet angle-là. On trouve naturellement beaucoup d’ouvrages sur l’e-business, le brand-content, le social-media,…Mais je n’ai pas trouvé les réponses à mes questions : qu’est-ce qu’une marque sur internet ? Est-ce que cela existe vraiment et si oui qu’est-ce que c’est ? En tant qu’expert du branding, je ne pouvais pas faire autrement que d’essayer de trouver des réponses à ces questions. C’est ce que j’ai essayé de faire avec cet exercice, qui m’a notamment permis de découvrir et de catégoriser des types de marques qui n’existent pas dans le domaine physique. C’est le cas des wiki-brands par exemple, dont le business model peut-être parfaitement valide comme le montre Wikipédia, qui lève 120 millions de dollars chaque année. C’est aussi le cas des marques de comparateurs, qui n’existent pour ainsi pas ailleurs que sur internet, et là encore avec un modèle économique à la fois original et pertinent.

    E-branding est aussi une suite à votre ouvrage sur le Branding Management ?

    Oui, même si l’entreprise est plus modeste que l’écriture de Branding Management, auquel j’ai consacré 5 ans. En tout cas, le fait est que j’avais le sentiment de pouvoir combler  un vide en m’intéressant à cet enjeu du e-branding qui, soit dit au passage, ne fait aujourd’hui l’objet d’aucune formation spécifique. On forme des gens au branding, mais pas au e-branding !

    En quelques mots, en quoi le e-branding révolutionne-t-il le branding ?

    Je crois que l’on peut répondre à cette question avec 3 points essentiels. Le premier point - qui est très choquant pour un spécialiste du branding - c’est qu’au fond, la marque a assez peu d’importance sur internet. Le produit est plus important que la marque, ce qui chahute quand même beaucoup de certitudes ! Le deuxième point, qui est un peu le corolaire du premier, c’est que la notion de notoriété sur internet ne sert à rien, ou disons à pas grand chose. Alors que dans le monde classique, la notoriété est un enjeu majeur, au point que les marques sont prêtes à dépenser des sommes phénoménales pour gagner quelques modestes point de notoriété. Avec internet, les schémas classiques d’analyse de type brand-funnel ne fonctionnent pas. C’est ce que montre l’exemple de ce petit exercice auquel je me suis livré : si vous faites une recherche de type « petite robe noire Chanel » sur Google, la marque Chanel n’apparaît qu’à la 200ème page pour ce qui est du référencement naturel. En d’autres termes, cela sonne le glas de cette bataille majeure qui était celle du top of mind. Dans les rues de ce nouveau monde qu’est internet, il n’y a pas de numéros meilleurs que d’autres : tout le monde est placé au même niveau, sachant que les moteurs de recherche pèsent pour 85% des consultations. Internet, c’est Google.

    Sur internet, la notoriété n’est pas la porte d’entrée…

    Absolument. Elle n’est plus une première étape obligatoire ; elle est même le plus souvent une résultante. Le 3ème point qui me semble majeur, c’est qu’internet procède d’une logique non pas systématiquement de destruction de valeur, mais quand même de contre-valeur. Avec internet, vous trouvez facilement le même produit à 3 prix différents, et le système pousse donc naturellement le consommateur à prendre le moins cher. C’est cette logique de contre-valeur qui explique en particulier la grande réussite des « booking » divers et variés.

    Quelles sont les idées reçues ou les plus grandes contre-vérités au sujet du e-branding auxquelles vous aimeriez tordre le cou ?

    Je crois qu’il y aurait beaucoup à dire au sujet du Brand Content. Entendons-nous, je pense qu’il s’agit là d’une très belle expression, qui devrait faire sens dans le travail des marques. Mais l’expression me semble très inadaptée au regard de la façon dont elle est le plus souvent mise en pratique. Dans ce qui est mis en œuvre, on trouve essentiellement de l’animation. On occupe l’espace, le temps. Mais l’occupation ne fait pas nécessairement sens. Il peut arriver bien sûr que le brand content soit intelligent, pertinent, mais 9 fois sur 10, on est très éloigné de la plateforme de la marque.

    Dit autrement, le brand content tel qu’il est pratique pourrait s’assimiler à une technique de « spectacle », le plus souvent déconnecté de la fonction même de la marque ? Cela pourrait parfois s’assimiler aux pratiques du sponsoring d’hier…

    C’est tout à fait ça, c’est un exercice le plus souvent déconnecté du storytelling de la marque et de ce qu’elle fait. C’est de l’animation. A l’identique du sponsoring d’antan, on peut toujours forcer la démonstration et assurer qu’il y a un lien avec la marque, mais en toute rigueur, cela ne tient pas. Ce qui est trompeur, c’est que l’expression désigne quelque chose qui a une vraie pertinence, mais les faits et les pratiques en sont fort éloignées. La priorité se résume le plus souvent au fait de faire du bruit, d’occuper l’espace.

    Quels seraient pour vous les exemples flagrants d’un brand content réussi du point de vue du spectacle, mais déconnecté de l’intérêt de la marque ?

    Le cas de la musique me semble emblématique de cela. Beaucoup de marques s’associent à des musiciens, certaines vont même jusqu’à créer des labels. Mais rares sont les cas où cela se fait réellement en cohérence avec la plateforme de marque !

    Qu’est-ce qui définit le fait d’être une marque sur internet, une e-brand ?

    Je crois que l’on est une e-brand lorsque que les consommateurs sont prêts à vous payer plus cher ou à vous consacrer plus de temps que si vous n’en n’étiez pas une. On retrouve la notion de prime associée à la marque, en tenant compte du fait que sur internet plus qu’ailleurs, le temps est de l’argent. Pour le coup, cela reste cohérent avec le monde d’avant internet : une marque est ce qui justifie une prime de temps ou d’argent.

    Est-ce qu’il y a des fonctions de l’e-brand dont l’importance vous semble régulièrement sous-estimée par les e-brand managers, et si oui lesquelles ?

    Oui, je crois que la fonction identitaire (ou communautaire) est insuffisamment prise en compte. La grande majorité des e-brands s’expriment comme s’il n’y avait qu’un seul consommateur, d’où cette sorte de « blues » du marketing, qui a l’habitude de parler à des cibles ou des segments. L’entreprise ne peut pas vivre avec l’idée qu’il y a un million de façons différentes de s’adresser aux consommateurs. Cela signifie qu’il faut sans doute ré-inventer la façon de segmenter les marchés, à l’image peut-être de ce qui a été fait avec les socio-styles qui, à une certaine époque, ont permis de proposer de nouvelles segmentations, plus pertinentes que les précédentes.

    Le storytelling est un terme tellement utilisé qu’il nous semble parfois s’être vidé de sa substance... Quelle vous paraît être la définition à la fois la plus simple et la plus juste ?

    Faire du strorytelling, c’est raconter le mythe sous-jascent de la marque. Dès lors que l’on associe de façon pertinente une marque à un référent, à une représentation culturelle et sociale qui existe déjà dans la tête des gens, on construit un story-telling réellement efficace.

    C’est le fait de faire écho à un référent culturel…

    C’est ça. Un mythe, c’est une histoire que des gens croient vraie, même s’il y a deux siècles ou deux mille ans qu’elle a été inventée. Elle fait partie des représentations que les gens ont de la société et d’eux-mêmes. Quand on « surfe » là-dessus, c’est gagné.

    J’imagine que l’écriture de ce livre a été l’occasion pour vous de formuler des convictions déjà bien ancrées, mais aussi peut-être de vous en forger des nouvelles ?

    En réalité, je me suis lancé sans trop de convictions ni d’a-priori. Plus précisément, tout le monde me semblait sous-entendre qu’avec internet, tout était à revoir. Mon regard, mon questionnement a été de vérifier cela. Est-ce qu’il y a des invariants ou pas ?

    Une des conclusions à laquelle j’ai abouti est que sur le net, mieux vaut être nouveau qu’ancien. Pour prendre un exemple, mieux vaux être Sarenza que La Redoute. En théorie, une marque comme La Redoute a tout pour réussir. Elle a la notoriété, la force de marque, le capital confiance. Arrive une marque inconnue qui propose quelque chose de tout à fait improbable : achetez-donc vos chaussures sur internet. Et à l’arrivée, c’est le nouveau venu qui l’emporte. On peut faire le parallèle avec Amazon et la Fnac. Normalement, Amazon n’a aucune chance. Et pourtant ! L’autre conclusion importante qui s’est imposée à moi, c’est l’importance du temps. On savait déjà ça, que le temps c’est de l’argent. Mais avec internet, cela va vraiment très loin. Il me semble en tout qu’il y a une réflexion encore insuffisamment menée par les marques autour de la notion de rapidité, qui doit être une obsession par exemple dans le design des sites internet. On retrouve la valeur de démonstration de la fameuse page blanche de Google. C’est le primat du produit. L’efficacité est LA super-valeur.

    Si le lecteur ne devait retenir qu’une seule idée, laquelle serait-ce ?

    Paradoxalement, lorsqu’on analyse une dizaine de secteurs, on voit que les sites qui fonctionnent le mieux sont ceux qui font du branding « à l’ancienne ». Ils rappellent leurs valeurs, ils font valoir leur storytelling, ils se replacent dans une logique de branding. C’est flagrant pour des marques comme Amazon, qui explique très bien ce qu’est une logique transactionnelle et quelles sont les 5 règles qui font que c’est simple, efficace, rapide. On peut aussi citer Google. Ils sont rois du monde parce qu’ils ont décidés de l’être, le fondateur de Google étant persuadé d’être un nouveau Prométhée. Cela tend à démontrer que le branding est quand même bien utile pour faire du commerce, avec ou sans petit e devant !

    Nota :
    Georges Lewi est professeur (Celsa) et l’auteur d’une dizaine d’ouvrages consacrées à la marque dont Branding Management (qui vient d'être ré-édité) et Mythologie des Marques. Il est l'auteur du blog Mythologicorp, et le fondateur de la société du même nom.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Georges Lewi

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Livres, publications / Marque /
  58. « Nous serons leader mondial des études marketing dans les 3 ans » - Interview exclusive d’Anton Glycerinesky (Definitiv’ Market Research)

    1 avr. 2014

    Le petit monde des études marketing bruissait depuis déjà quelques semaines d’une rumeur, celle de l’arrivée d’un nouvel acteur animé de grandes ambitions et s’appuyant sur des techniques de recherche tout à fait inédites.

    La rumeur est manifestement fondée, comme en témoignent les propos du bouillonnant fondateur et PDG de la société Definitiv’ Market Research, Anton Glycerinesky, qui a accepté de répondre à nos questions.

    Market Research News : Vous venez d’annoncer l’ouverture de votre premier bureau à Paris. Pourquoi Paris ? Quelle est donc votre vision du marché des études en France, et en particulier de la demande ?

    Anton Glycerinesky : Je suis convaincu que c’est un marché à très fort potentiel. Nous avons analysé la situation dans différents pays, et il nous est apparu que la France était un cas vraiment particulier. Qu’il s’agisse des responsables politiques ou des dirigeants d’entreprise, je n’avais jamais vu des gens aussi perdus, alors même qu’ils sont à l’évidence très intelligents. Ils donnent souvent en premier abord l’impression d’être très sûrs d’eux, mais dès que l’on rentre dans des questions un peu précises sur leurs priorités et la façon de les atteindre, on voit bien qu’ils sont incroyablement dans le doute. Ils ne l’avouent pas facilement, mais en réalité, beaucoup d’entre eux sont prêts à payer cher pour se délester de leurs doutes et les remplacer par quelques certitudes. Nous sommes précisément là pour les aider à ça !

    Pourquoi pensez-vous y parvenir mieux que les acteurs existants du marché des études ? 

    Je connais un peu les dirigeants des instituts français. Ce sont des gens dont les raisonnements sont très subtils. Ils sont assez forts pour soulever des nuages de fumée, mais en réalité, ils restent très conservateurs dans leurs approches. Ils continuent pour la plupart à s’arc-bouter sur des techniques parfaitement désuètes, qui ne font que rajouter encore plus de doute et de confusion dans la tête des gens qui doivent prendre des décisions. Regardez la tête que fait souvent votre président de la république : c’est évident qu’il a lu beaucoup trop de rapports d’études qualitatives !

    Qu’est-ce qui vous rend si critique vis à vis des études qualitatives ?

    Honnêtement, on ne comprend rien à ce que disent les qualitativistes ! Vous leur posez une question, ils vous répondent qu’il y a du blanc, puis du noir, puis plein de couleurs différentes qui s’annulent. Et à la fin, tout est gris ! J’ai personnellement déjeuné avec un certain nombre d’entre eux pour me faire une opinion, mais j’en suis toujours arrivé à ce constat. La seule chose que je comprenais à la fin du repas, c’est qu’ils me remerciaient de l’invitation et qu’ils étaient contents d’avoir pu enfin manger à leur faim, tellement ils sont mal payés !

    Vous prônez donc un renouvellement radical des méthodes de recherche. Pouvez-vous nous indiquer vos principaux parti-pris ?

    Nous sommes partis de trois constats essentiels. Le premier, nous l’avons déjà évoqué, c’est le fait que les décideurs français sont tellement dans le doute qu’ils ne savent même pas formuler clairement les questions qui les préoccupent. Le deuxième point important, c’est que ces dirigeants sont entourés de collaborateurs qui font perdre un temps considérable. Ils font semblant de comprendre les problèmes que se pose leur entreprise, ils soumettent des questions aux sociétés d’études, et quand celles-ci leurs apportent des chiffres et des réponses, ils leurs reprochent de ne pas avoir posé les bonnes questions. Et enfin, toutes ces techniques demandent un temps incroyable. Entre le moment où l’entreprise formule quelque chose qui ressemble à un objectif et celui où les instituts apportent quelque chose qui ressemble à une réponse, il s’écoule un temps tellement long que plus personne ne se souvient de la problématique. Nous avons cherché des techniques qui permettent de gagner un maximum de temps, en supprimant tous les intermédiaires inutiles.

    Et quelle technique avez-vous retenue pour cela ?

    Nous ne pouvons pas dévoiler toutes les techniques sur lesquelles nous travaillons, mais nous venons de finaliser la mise au point d’un protocole extraordinairement efficace, qui est l’aboutissement de recherches pour l’armée russe, et que nous avons baptisé GlycerinResearch. Nous nous sommes bien sûr appuyés sur la collaboration des scientifiques les plus en avance sur la connaissance du cerveau humain. Concrètement, nous recrutons une douzaine de consommateurs pour les réunir dans une salle insonorisée. Et nous les relions à des capteurs individuels de type NitromarkV3, le 3 signifiant que nous en sommes à la 3ème génération de cette technologie. Et nous demandons au client, par exemple le directeur marketing, de venir s’installer dans une petite pièce attenante. On l’équipe lui aussi d’un capteur léger de type O12, qu’il peut connecter à sa convenance, au bout d’une oreille par exemple. C’est très peu intrusif, il peut très bien manger ou boire s’il en a envie. Et quand tout le monde est câblé et prêt, on peut lancer l’amplificateur d’ondes.

    A quoi sert cet amplificateur ?

    Ce que l’on fait, c’est que l’on demande tout simplement à l’acheteur de l’étude de se concentrer très intensément sur les problèmes de son entreprise, et sur son propre stress. Cette activité cérébrale produit des ondes, que l’amplificateur a pour fonction d’amplifier comme son nom l’indique, et que nous communiquons aux cerveaux des consommateurs via le circuit électrique. C’est comme s’il y avait une sorte de procédé « empathique ». On fait passer le stress du décideur directement dans le cerveau des consommateurs, en l’amplifiant. Les consommateurs s’approprient ce stress à la puissance 10 ; et le cerveau de ces individus s’active à la fois pour reformuler les questions et apporter les réponses les plus adaptées.

    Mais pour quels types de problématiques utilisez-vous cette technique ?

    Vous mettez le doigt sur le côté magique de cette technique. Il n’y a pas besoin de formaliser une problématique ou des objectifs d’études. Il suffit simplement que le décideur se concentre sur son stress. Nous déconseillons même de formaliser des objectifs. C’est une perte de temps, et cela brouille l’activité cérébrale du décideur. La technique peut donc s’appliquer de façon universelle à toute situation, dès lors qu’elle génère un stress de la part d’un dirigeant. Il suffit simplement de capter ce stress, de l’amplifier, de le transmettre aux consommateurs pour les stimuler et leur faire produire les bonnes idées. Il ne reste plus qu’à capter en retour le produit de ces activités  cérébrales.

    C’est effectivement étonnant. Et quels sont les outputs de la démarche ?

    Les ondes cérébrales des consommateurs sont captées, analysées et synthétisées par un ordinateur Sovak12, qui produit automatiquement un rapport de 10 pages au maximum, avec une synthèse en 1 page, ce qui plait beaucoup aux directeurs marketing, surtout aux proctériens. Avec cette synthèse, ils disposent de quelque chose de très opérationnel : les grandes lignes du plan d’action sont exposées de façon limpide !

    Juste un détail : pourquoi la salle où sont réunis les consommateurs est-elle insonorisée ?

    Il arrive parfois que le coefficient de stress du dirigeant soit vraiment très élevé. Si le signal est amplifié, cela peut devenir assez douloureux pour les consommateurs participants. Il arrive donc que certains se mettent à hurler. Cela n’est pas si gênant pour les autres participants, qui ont déjà fort à faire avec leur propre stress, mais on veut éviter d’importuner le voisinage. C’est une technique encore récente, que nous améliorons pas à pas. Avec les versions précédentes, les NiotromarkV1 et V2, il y avait parfois des soucis importants avec certains consommateurs. C’était comme si ça leur faisait sauter les plombs, et ils mettaient souvent des mois pour retrouver l’usage de la parole. Mais maintenant, cela semble aller beaucoup mieux. Les consommateurs se plaignent encore de devoir subir des acouphènes un peu violents, mais on leur fait signer une décharge de responsabilité qui nous évite tout problème, ainsi qu’à nos clients.

    Quel est précisément le feed-back de vos premiers clients ?

    Il est évident qu’ils sont bluffés. Ils sont extrêmement sensibles à ce gain de temps que procure cette technique, au fait de pouvoir s’éviter tout ce temps perdu en réflexions inutiles, que ce soit pour définir le problème ou pour identifier les pistes d’action. Il faut se mettre à leur place. Ils arrivent à 10h le matin. Et à 11h ils repartent avec le « one page » et les 10 slides powerpoint. Ils sont tellement contents du temps qu’ils gagnent ainsi, ils se sentent tellement légers que très souvent, ils rentrent directement chez eux sans repasser par le bureau, pour bien profiter du fait de s’être ainsi délesté de leur stress.  Ces réactions nous laissent en tout cas extrêmement confiant quant au succès de notre approche. Nous devons bien sûr faire un sans-faute sur le plan commercial, mais si tel est le cas, je pense qu’il ne nous faudra pas plus de trois ans pour être le leader mondial dans le domaine des études de marché.


     POUR ACTION 

    Commenter 

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  59. Quand le consommateur est (aussi) un grand enfant… Interview de Nabil Thalmann (Personae User Lab)

    18 mars 2014

    Avec internet, on évoque régulièrement la maturité croissante des consommateurs, qui va de pair avec une forme d’expertise et un niveau d’exigence tel qu’il devient de plus en plus difficile de les satisfaire dans le cadre d’un modèle économique valide.

    Et si ce consommateur était aussi un grand enfant, bien plus « tolérant » qu’on ne le dit en particulier dans le cadre de son usage des sites internet et des différentes interfaces digitales ? C’est ce contrepoint et plus largement quelques lignes de force quand aux facteurs clés de succès sur internet que nous fait partager ici Nabil Thalmann (directeur associé de Personae User Lab), au prisme de son expérience sur les tests utilisateurs.

    Market Research News – Thierry Semblat : De par votre domaine de spécialité - celui des dispositifs digitaux -  et de votre expérience sur des secteurs d’activité variés, vous développez une certaine vision du consommateur, qui ne se recoupe pas toujours totalement avec la vision dominante. Quels sont les points de vision sur lesquels vous ressentez une dissonance particulière ?

    Nabil Thalmann : Trois points reviennent souvent dans le portrait qui est dressé du consommateur d’aujourd’hui, et dans la façon dont il est en train d’évoluer. En résumé, internet aurait contribué à faire du consommateur un individu hyper-exigeant, hyper-sensible au prix, et particulièrement « égo-centré », avec à la clé une demande croissante pour tout ce qui va dans le sens de la personnalisation des produits et des services. Je n’irais pas jusqu’à dire que je conteste ces évolutions, mais sur la base de notre expérience, je suis quand même enclin à les relativiser. Je suis frappé notamment par le fait qu’en réalité, le consommateur reste beaucoup plus susceptible qu’on ne le dit de se laisser guider. Il reste un espace de liberté important pour les marques pour proposer des expériences, voire même pour imposer certaines modalités, dès lors néanmoins qu’une condition essentielle est remplie, celle d’un ratio coût / bénéfice qui soit réellement en faveur des consommateurs.

    Qu’est ce que signifie cette notion d’espace de liberté si l’on s’intéresse en particulier à la question de l’ergonomie des sites web et des interfaces ?

    Cela signifie que pour bénéficier d'un service, acheter son produit ou trouver une information sur le web, l'internaute est prêt à se soumettre à des modes de navigation relativement inhabituels ou même qui ne respectent pas ce que l’on considère habituellement comme des règles d'or dès lors que l'objet du site revêt une valeur importante pour lui. On peut réellement être assez imaginatif sur le plan de l’ergonomie ; il ne faut pas se brider en termes d’originalité. Mais ce que le consommateur ne pardonne pas, c’est l’incohérence, que ce soit dans l’ergonomie en tant que telle ou sur le plan du discours. L’expérience doit être conforme aux promesses, sinon gare !

    Sur certains secteurs d’activité, on peut observer le succès des sites de type UGC (User Generated Content), comme Tripadvisor par exemple. Votre pronostic est-il celui d’une importance croissante de ces avis dans les choix des consommateurs ?

    Je crois qu’il ne faut pas être trop catégorique. La note moyenne n’est pas un facteur de conversion systématique. Pour le coup, les consommateurs sont bien avisés. Ils connaissent bien la limite des notes moyennes associées aux avis des consommateurs, et sont particulièrement attentifs au nombre de votants. Et il ne faut pas perdre de vue que le consommateur a toujours farouchement envie de se faire sa propre idée, sur la base de sa propre expérience. Il n’est pas prêt à suivre aussi aveuglément les conseils d’inconnus, sauf dans les situations où le discount prix est très important et vient ainsi conforter le consommateur dans l’idée qu’il fait une bonne affaire.

    Les marques se posent beaucoup de questions quant au dimensionnement de leur service-client, et quant à la capacité des conversations (mail) ou même des réseaux sociaux à venir se substituer aux dispositifs d’accueil téléphonique. Quelle est votre analyse sur ce point ?

    Le constat que nous faisons, c’est qu’en cas d’absence de contact humain (physique ou vocal), le consommateur devient extrêmement exigeant sur le délai de réponse. S’il communique par email, il s’attend à une réponse dans la journée, au plus tard dans les 24 heures. En fait, il est d’autant plus impatient que la notion de temps de traitement lui échappe. Il ne se rend même plus compte qu’il y a d’autres consommateurs qui sollicitent aussi le service-client, tout simplement par ce qu’il ne voit pas la file d’attente. Au fond, le consommateur reste attaché à un contact humain. C’est une des raisons pour lesquelles il est séduit par les solutions de clic to chat. C’est une bonne option parce que cela ne lui coute rien, lui évite la peine de chercher la réponse à sa question sur le site, lui donne l’engagement d’une réponse rapide, et cela le valorise ! Moralité : il faut savoir tenir le consommateur par la main, tout en étant capable de s’effacer lorsqu’il veut marcher tout seul !

    Le web est un environnement qui a tendance à favoriser la volatilité des consommateurs. Quelles sont selon vous les « armes » que devraient plus souvent utiliser les marques ?

    Il est évident que le web est synonyme de fluidité. Il est facile pour le consommateur d’être infidèle, d’autant plus qu’il y sans arrêt de nouveaux acteurs et de nouvelles propositions. Il me semble que les marques ont souvent à gagner à plus jouer la carte de la proximité. C’est un atout important parce que cela joue sur un des leviers majeurs dans le monde digital : la notoriété spontanée, la présence à l’esprit. Beaucoup de choses se jouent sur des réflexes. La valeur émotionnelle de la marque est donc importante pour créer ou entretenir cette proximité, sans oublier bien sûr la qualité de la relation et du produit : un consommateur digital est très peu enclin à pardonner une marque qui lui procure une mauvaise expérience.

    On évoque une réticence croissante des consommateurs face à l’utilisation qui est faite par les marques de leurs données personnelles. Quelle est votre perception des consommateurs sur ce point ?

    La perception « naturelle » du consommateur est de considérer une entreprise comme une personne unique. C'est pourquoi le multi-canal et la cohérence entre les différents canaux de vente ou de communication lui parait une évidence. Si l’entreprise est une même entité, pourquoi ne pourrait-il pas retourner en magasin un produit acheté sur Internet ? Pourquoi devrait-il réexpliquer au téléphone une action engagée dans un point de vente ? Pourquoi ne retrouverait-il pas la même information entre le site et le catalogue papier ? Dans ce contexte, je ne suis pas certain que le consommateur soit si frileux que cela pour que l’entreprise croise et utilise les informations dont elle dispose à son sujet. Mais là encore, la seule et unique question qui le préoccupe, c’est son propre intérêt. Si l’entreprise lui démontre que cet usage des données est générateur d’un bénéfice pour lui, il me semble qu’il l’accepte très bien. Mais à l’inverse, si l’entreprise ne parvient pas à le lui démontrer, mettons nous à sa place : pourquoi le ferait-il de bonne grâce ?

    Tel que vous le décrivez en creux, le consommateur n’est ni un enfant capricieux, ni l’expert avisé que l’on décrit parfois…

    En effet. Il me semble que le plus souvent, l’image la plus juste est celle d’un grand enfant, capable d’être bien plus raisonnable qu’on ne le dit. Il peut souvent nous surprendre à accepter des expériences ou des services qui n’auraient semblé imaginables quelques années en arrière. Et on sous estime grandement à mon sens son besoin d’être guidé, dans une relation où la proximité avec les marques continuera à jouer un rôle essentiel.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Nabil Thalmann

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews /
  60. Les dépenses de communication des annonceurs en forte baisse sur 2013

    17 mars 2014

    Avec la présentation croisée de ces deux visions complémentaires que sont les recettes publicitaires des médias d’un côté (IREP),  et les dépenses publicitaires en net des annonceurs de l’autre (France Pub), Philippe Legendre et Xavier Guillon ont publié des chiffres 2013 qui témoignent d’une net fléchissement de l’activité publicitaire pour cette année écoulée.

    Après une année 2012 peu folichonne (-1,3%), l’année 2013 se solde en effet par une baisse de 3% des dépenses publicitaires des annonceurs selon les chiffres de l’étude France Pub, les recettes publicitaires des médias (recensées dans l’étude complémentaire de l’IREP) évoluant quant à elle dans le même sens avec une baisse de 3,5%.

    1. Des dépenses en nette régression pour la totalité des médias historiques

    Sous l'angle de nature des dépenses, les chiffres de France Pub (cf tableau ci-dessous) font ressortir des évolutions saisissantes.

    Les baisses sont franches et se poursuivent pour les principaux postes historiques de dépenses des annonceurs que sont la Télévision (-3,4%), la Presse (-7,9% au global, avec -9,9% pour les quotidiens nationaux et -5,8 pour la presse quotidienne). Le marketing direct, qui pèse pour près de 29% des dépenses des annonceurs, est également en forte baisse avec une évolution à -4,7%. Les dépenses d’affichage évoluent également à la baisse (-2%), ainsi que le budget consacré aux annuaires (-6,1%).

    Des postes de dépenses que l’on avait vu progresser en 2012 se contractent en 2013 : c’est le cas des Salons et Foire (-1%), des Relations Publiques (-0,5%), le budget Promotion restant stable quant à lui.

    Le seul poste qui affiche une progression est celui d’internet, qui pèse désormais 6% des dépenses publicitaires des annonceurs, avec un + 3,4%

    2. Des évolutions sensiblement comparables pour les différents secteurs d’activité

    Par ailleurs, si l’on compare les évolutions des dépenses entre les différents secteurs d’activité, on ne note pas des disparités aussi marquées qu’en 2012. Le domaine de l’industrie est celui qui enregistre la baisse la plus marquée (-3,5% aussi bien pour l’industrie des biens de consommation que pour le Business to Business). Mais le domaine des Services n’est pas très loin, les dépenses des sociétés relevant de ce secteur étant en baisse de 3,1. C’est dans le domaine de la distribution que l’on observe une baisse un peu moins marquée, avec une évolution à -2,1%.

    3. Des évolutions qui s’expliquent par un contexte économique global médiocre, mais aussi par des inflexions stratégiques importantes côté annonceurs.

    Cette évolution à la baisse des dépenses publicitaires doit bien évidemment être analysée en tenant compte d’un contexte économique particulièrement maussade, avec une croissance atone. Si l’on observe l’évolution du rapport entre les dépenses publicitaires des annonceurs et l’ensemble du PIB français, force est cependant de faire le constat d’une activité particulièrement faible avec un ratio à son plus bas niveau historique (1,42%) et en dégradation constante depuis l’année 2000 (ce ratio s’établissait à 1,99% cette année là).

    Mais un autre élément d’explication doit également être intégré : celui d’une inflexion stratégique importante de la part des annonceurs, avec un transfert de leurs dépenses au profit de médias dits « propriétaires » (sites et applications internet notamment), qui ne sont intégrées qu’à la marge dans le périmètre de l’étude.


     POUR ACTION 

    Commenter 

    • En savoir plus via France Pub et Irep

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Marque / Revue de web / Résultats d'études /
  61. Comment contourner le diktat du « Quick and Dirty » ? Interview d'Isabelle Fabry-Frémaux (ActFuture.com)

    7 mars 2014

    « On n'a pas le choix, on va faire du ‘Quick and Dirty’ ». Si vous êtes familier des études marketing et travaillez dans un environnement qui ne proscrit pas l’usage de l’anglais, il est probable que la formule ne vous soit pas étrangère, et avec lui cet impératif d’accepter des modalités d’études dégradées pour pallier l’urgence.

    La pratique du « Quick and Dirty » est-elle pour autant incontournable compte tenu de la pression croissante du temps dans les entreprises et les organisations ? Certainement pas, nous dit Isabelle Fabry-Frémaux (ActFuture.com), qui propose un protocole visant plutôt à faire du « Quick and Clever ».

    Cette notion de « Quick and Dirty » est souvent évoquée dans le domaine des études marketing. Mais diriez-vous que cela correspond à une demande fréquente de la part des entreprises, que ce soit explicitement ou implicitement ?

    Je n’irais pas jusqu’à dire que cela devient la norme, mais il est clair que cela correspond à une part substantielle des études qui nous sont demandées par les clients. Et c’est effectivement un phénomène qui s’est considérablement amplifié au cours de ces dernières années, avec une exigence croissante de rapidité de la part des équipes marketing et plus largement des entreprises. Lorsque la demande est implicite, ce qui peut bien sûr arriver, cela signifie qu’il y a potentiellement une zone de risque, avec un malentendu possible quand aux attendus de l’étude et au processus à engager. Dans ces cas-là, il nous paraît fortement préférable de reformuler le besoin dans des termes plus explicites en effet, l’objectif étant de travailler selon un « contrat » clair à la fois pour nous institut et pour l’entreprise. Lorsque cette condition est remplie, notre vision est que l’on peut répondre au besoin en sortant des protocoles les plus classiques, de sorte à être « Quick » et non pas « Dirty » mais « Clever », ou pour le dire en français intelligent ou malin.

    « Quick and Clever » est-il une méthode en tant que telle ? Comment l’idée est-elle née ?

    C’est un ensemble de principes, que nous avons défini en nous inspirant d’une méthode utilisée dans le domaine médical. Il s’agit en l’occurrence de la méthode formalisée par David Servan Schreiber, pour soigner ou du moins soulager les patients traumatisés notamment en temps de guerre. C’est le fameux questionnaire de l’ELFE (QELFE), avec ces 4 interrogations clés : Q pour Question - Que s’est-il passé ? E pour Emotion - Qu’avez-vous ressenti ? L pour Le Plus : Qu’est-ce qui vous a été le plus difficile ? F pour Face - Comment avez-vous réussi à faire face ? Le dernier E traduit la notion d’empathie que se doit d’exprimer le médecin à son patient à l’issue de ce questionnement. Nous avons en quelque sorte transposé cette méthode dans le domaine des études marketing qualitatives autour de cet acronyme, PARIS, qui nous permet de poser ce contrat que nous évoquions précédemment.

    Déroulons donc ce PARIS…

    Le P correspond à la notion de Précision. Nous partons d’un constat extrêmement simple,  qui est qu’une très grande proportion des briefs qui émanent spontanément des annonceurs et des instituts demandent à être reformulés, soit parce qu’ils se limitent à quelques phrases trop vagues pour pouvoir élaborer une méthodologie, ou bien encore parce qu’ils intègrent un luxe de détail tel que la demande semble irréaliste. Nous posons donc 3 questions à savoir celle de l’objectif, de la cible, et du budget. Elles peuvent paraître évidentes, mais au-delà des questions elles-mêmes, ce qui importe le plus pour nous est de proposer une tonalité d’échange qui est celle de la précision, de la concision, de la rapidité. Si le client demandeur ne va pas vite, nous ne pourrons pas être dans le « Quick ». Cela pose d’emblée une forme de contrat moral, et à partir de là, on sait ce que le client veut, désire.

    Le A renvoie à la notion de réponse Answer. Notre premier engagement est celui de proposer une méthodologie en quelques slides au plus tard dans les 24 heures qui suivent la demande. Et nous nous engageons sur un délai de 7 jours entre le GO du client et la présentation des résultats et des recommandations.

    C’est bien sûr le R de Rapidité. Le I correspond à la notion d’Intelligence, celle déployée au moment de l’analyse. Et le S est celui des Solutions ou des préconisations formulées à l’issue du processus.

    Le temps réservé à l’analyse est généralement considéré comme « critique » pour la qualité de l’étude… Quels sont donc vos partis pris pour éviter à ce moment-là précisément de basculer dans le « Dirty» ?

    Vous mettez le doigt sur un aspect essentiel du processus. Notre parti-pris est résolument de sortir des process traditionnels utilisés dans le cadre des études qualitatives, avec un principe d’analyse qui ne passe pas par une mise à plat exhaustif du contenu, mais qui s’appuie plutôt sur une démarche d’analyse beaucoup plus spontanée. En d’autres termes, nous nous appuyons d’abord et avant tout sur notre mémoire vive. C’est un processus « raccourci », qui n’est évidemment possible que si l’animation et l’analyse sont mises en oeuvre par une seule et même personne, à partir du moment où celle-ci dispose d’une grande expérience. C’est ce parti-pris qui permet de mettre, immédiatement après le terrain, en exergue très rapidement, grâce à un esprit de synthèse exercé et une bonne expérience en marketing, les 5 à 10 points clés à retenir, qui sont bien sûr étayés par des contenus.

    Et au moment de la restitution, quelles sont les conditions qui vous semblent importantes à respecter pour tenir ce cadre du « Quick and Clever» ?

    Il doit toujours y avoir ce même impératif de rapidité, de concision. Cela signifie concrètement que la présentation doit durer moins d’une heure, en commençant par les conclusions clés, que l’on explicite dans un second temps. Pour faciliter l’appropriation de ces messages, il nous semble également important de respecter le principe du « sandwich ». S’il y a un message difficile à faire passer, avec l’énoncé d’une ou plusieurs pistes d’optimisation par exemple, il est préférable qu’il soit intercalé entre deux messages positifs, plus faciles à entendre pour l’auditoire. C’est une bonne façon d’évacuer des conflits parfaitement inutiles.

    Cette démarche, et en particulier ce parti-pris en termes d’analyse peuvent ne pas convenir à tout le monde… Quelle est votre philosophie quant à son bon emploi ?

    Il est parfaitement évident que cette démarche ne doit jamais être imposée. Si le demandeur n’a pas besoin / envie d’aller vite, si sa culture d’entreprise est plus à bien prendre le temps et se sent plus à l’aise dans les méthodes traditionnelles, elle n’est pas adaptée. Mais si à contrario elle vient en réponse à une sorte de « challenge », si on est bien dans cette logique de contrat moral que nous avons évoqué avec des exigences de part et d’autre, elle a alors toute sa pertinence, au point de vite créer de nouvelles habitudes entre nous l’institut et nos clients.

    NDLR : ActFuture.com présentera cette approche dans le cadre du Printemps des Etudes. Cliquer ici pour retrouver l’ensemble du programme de la manifestation.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Isabelle Fabry-Frémaux

    • Partager sur Twitter ou LinkedIn

    • Vous tenir régulièrement informé(e) de l'actualité sur Market Research News

    Interviews / Méthodologie /
  62. Un printemps des Etudes 2014 placé sous le signe du défi et de la combativité - Interview de Stéphanie Perrin, Directrice d’Empresarial et Commissaire Général du Printemps des Etudes.

    28 févr. 2014

    Après s’être imposé quasiment dès sa naissance (désirée par un collectif impressionnant d’acteurs) comme l’évènement majeur de l’année pour les études marketing, le Printemps des Etudes s’apprête à ré-ouvrir ses portes et celles du fameux Palais Brongniart.

    A quelques semaines de sa 3ème édition, qui se déroulera donc les 10 et 11 avril à Paris, nous avons interrogé Stéphanie Perrin, la principale chef d’orchestre de la manifestation, pour évoquer avec elle l’état d’esprit et les temps forts de cet événement.

    Th. Semblat - MRnews : Avant d’évoquer cette troisième édition du Printemps des Etudes, je vous propose que l’on revienne un instant sur le contexte du marché français des études marketing. L’année 2013 a été difficile pour pas mal d’acteurs. Comment l’avez-vous vécue de votre côté ? Et quelle est votre perception quant à la santé du marché en ce début d’année ?

    Stéphanie Perrin : Il est évident que 2013 a été une année relativement difficile pour la profession, dans un contexte économique global qui a été et reste assez maussade. Cela n’est pas vrai naturellement pour tous les acteurs, et en l’occurrence pas pour nous spécifiquement, le bilan de notre deuxième édition ayant même été très positif avec une belle progression du nombre de sociétés présentes et de participants au Printemps des Etudes*.  Au global, je suis quand même assez frappée par le fait qu’en dépit de ce contexte difficile, les signes d’une forte vitalité ne manquent pas. D’une part, les sociétés étrangères s’intéressent de plus en plus au marché français, qui est le 5ème marché mondial après l’Allemagne. Et enfin et surtout, on voit les sociétés françaises se battre, innover. Ce n’est d’ailleurs pas propre au marché des études. Il y a bien une forme d’esprit et d’innovation à la française, qui se traduit par de belles réussites sur des secteurs d’activité en forte croissance, que ce soit spécifiquement en France ou à l’international. Et cette « French Touch » est à l’évidence présente dans l’univers des études, où les Français ont une très bonne réputation, à un moment où cet univers évolue très rapidement.

    Précisément, quelles sont les évolutions qui vous semblent les plus marquantes dans l’univers des études ?

    J’ai le sentiment que nous vivons un moment un peu particulier, où l’on est en train de sortir des silos. C’est clairement la pluridisciplinarité qui est en train de s’imposer, avec la nécessité de travailler avec des métiers différents, et qui est en large partie liée à la place qu’a pris internet. On me pose parfois la question du nom de notre manifestation, l’idée étant que le terme d’études est peut-être trop restrictif. Je crois qu’il est important de savoir rester sur ses racines. Mais il me semble aussi que le terme d’études reste parfaitement valide dès lors que l’on ne s’enferme pas dans une définition trop étroite. Même si l’on parle beaucoup de big data par exemple, les enjeux d’analyse sont plus que jamais essentiels. De fait, je n’ai pas du tout le sentiment que la profession se cloisonne ; au contraire, les évolutions me semblent bien aller dans le sens de cette inter-disciplinarité. C’est en tout cas ce que l’on voit chez beaucoup d’instituts, et c’est tant mieux parce qu’il me semble que cela correspond bien à un enjeu majeur.

    Venons donc au Printemps, qui se tiendra donc les 10 et 11 avril, toujours au Palais Brogniart à Paris. Vous avez évoqué le bilan positif de l’édition 2013 ; quels sont donc les ingrédients clés que vous souhaitez conserver pour cette 3ème édition ?

    Nous avons à cœur de maintenir et de faire vivre deux principes essentiels, qui avaient été énoncés à l’origine même de la manifestation, dans le cadre de l’appel à projet défini par le collectif Re-Création. Il y a tout d’abord un choix, extrêmement structurant pour nous, qui consiste à réunir une majorité d’instituts parmi les sociétés participantes. Soit dit au passage, cela constitue une certaine singularité par rapport à ce que nous pouvons observer chez nos voisins, que ce soit en Angleterre ou en Allemagne par exemple.  Je peux vous assurer que ce n’est pas si simple à gérer au quotidien, mais nous considérons que c’est un gage important de l’intérêt de la manifestation pour les visiteurs. Le deuxième principe clé, en partie lié au précédent, c’est de faire le maximum pour privilégier la qualité du contenu. La qualité du travail effectué par le comité de programme est déterminante en ce sens, avec ces 4 collèges qui permettent de faire s’exprimer des visions différentes.

    Quelles sont les grandes nouveautés de cette édition 2014, et quel sera le thème de la conférence de lancement ?

    Nous allons démarrer cette édition avec une conférence inaugurale qui se présente comme très prometteuse. Elle se fera en deux temps, avec une introduction de Carol Allain, qui est un auteur et un fantastique conférencier d’origine canadienne, et qui a notamment écrit  L’Enfant Roi, et plus récemment Le choc des générations. Il va précisément évoquer ce thème. Nous donnerons ensuite la parole à plusieurs chefs d’entreprises français qui ont précisément su intégrer ce choc des cultures et être différents sur leurs marchés, en France ou à l’international, et écrire ainsi de belles histoires, dans des domaines assez variés. Nous allons en tout cas dès le lancement avoir une dimension internationale, ce qui correspond à un signe important, mais nous tenons aussi à ce que l’état d’esprit dominant soit positif, en valorisant en particulier l’innovation à la française. De l’audace !

    Parmi les nouveautés, je crois avoir entendu parler d’un principe de visites guidées ?

    En effet, nous allons inaugurer un principe de visites guidées thématiques, l’idée étant que sur 4 thèmes bien précis (La mesure des émotions, Les enquêtes sur mobile, Les panels propriétaires et communautés et le parcours d’achat), les visiteurs puissent découvrir en une heure les approches de quatre sociétés différentes, qu’elles présenteront donc chacune en un quart d’heure sur leurs stands respectifs. Nous aurons par ailleurs un « coin des auteurs ». Une douzaine d’auteurs viendront dédicacer leurs ouvrages et rencontrer leurs lecteurs, avec notamment Georges Lewi, Philippe Cahen, Daniel Bô, Géraldine Michel, Caroline Sauvajol-Rialland, Assaël Adary, Laurent Florès, Stéphane Dangel,… Et parmi les autres nouveautés importantes, nous allons mettre à disposition du public une application mobile dédiée au Printemps des Etudes, que les visiteurs pourront télécharger sur leurs Smartphones, et qui va leur permettre de mieux organiser leur visite, de se repérer sur les plans, d’en savoir plus sur les conférenciers... Toujours au travers de cette application, qui sera disponible d’ici peu sur notre site, il sera possible d’interagir lors des conférences.

    Voyez-vous d’autres nouveautés importantes à signaler à nos lecteurs ?

    Oui, je pense notamment au fait que deux institutions majeures de la profession vont organiser leur propre événement dans le cadre du Printemps des Etudes. C’est le cas d’Esomar, qui va organiser des workshops et deux petits-déjeuners, et du Syntec Etudes Marketing et Opinion, qui va organiser la 3ème édition d’Idées pour le futur ainsi qu’une réunion avec ses membres au sein même de la manifestation.

    Toutes les associations et syndicats professionnels (ADETEM, CESP, ESOMAR, IREP, Communication, Etudes, Recherche Prospectives, SYNTEC Etudes Marketing & Opinion et l’UDA) seront présents sur leur stand commun et prendront la parole dans le cadre de leur conférence « Les études, c’est ton avenir ! » le vendredi 11 avril de 11h00 à12h30.

    Au global, comment définiriez-vous le fil rouge, ou bien l’ambition n°1 de ce Printemps des Etudes 2014 ?

    Dans l’ambition du Printemps des Etudes, il y a au fond une grande constante qui consiste à valoriser tout ce que les études peuvent apporter aux entreprises, à montrer comment elles peuvent constituer un outil décisif au service de leurs performances. C’est manifeste sur les enjeux associés à l’innovation, qui constitue un sujet historique pour les études. Mais les études peuvent également beaucoup aider les entreprises sur des enjeux de rationalisation, de productivité. On peut observer d’ailleurs que de plus en plus de sociétés d’études parlent de notions de productivité, de retour sur investissement, avec du concret, des chiffres et des approches qui semblent extrêmement efficaces. Ce principe de valorisation des études est donc essentiel, et sera encore à nouveau extrêmement présent à l’occasion de cette édition, dans cette conjoncture que nous avons évoquée. Et je dirais enfin que la dimension internationale de l’événement va s’affirmer. A la fois parce que les sociétés étrangères s’intéressent de plus en plus à notre marché, et aussi parce que les Français n’ont certainement pas à rougir de leur capacité à innover et à réussir sur le plan international et doivent le faire savoir.

    * En 2013, le Printemps des Etudes a enregistré la participation de près de 120 sociétés d’études, et la venue de 2180 visiteurs professionnels


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Stéphanie Perrin

    Découvrir le programme ou s'inscrire sur le site du Printemps des Etudes

    • Partager sur Twitter ou LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Interviews / Salons / conférences / Vie de la profession /
  63. Les grandes tendances mondiales dans la pratique des études marketing - Publication de l’étude annuelle GRIT

    11 févr. 2014

    Quelles sont donc les grandes tendances pour les études et la recherche marketing au-delà des frontières de notre (petit) hexagone, et même à un niveau mondial ?

    La récente publication des résultats de la 14ème édition de l’étude annuelle GRIT réalisée par Greenbook - un des principaux média dédiés à la recherche Marketing, notamment dans l'univers anglo-saxon, avec Quirks – apporte un éclairage intéressant sur ce thème, l’investigation reposant sur un double dispositif quali-quanti avec l’interview de plus de 2200 professionnels des études (dont 38% d’européens).

    Sans viser à l’exhaustivité des résultats de cette étude (accessible à partir de ce lien), quelques points nous semblent particulièrement intéressants à mettre en relief, que ce soit en termes d’évolutions ou de perspectives

    1. Une petite « revanche » pour les études qualitatives

    2013 marque en effet manifestement une petite inversion de tendance, avec un ré-équilibrage des pratiques d’études en faveur de la recherche qualitative comparativement à 2012. Le développement de l’usage des communautés en ligne constitue un des moteurs les plus évidents de cette dynamique des études qualitatives. On ne constate par ailleurs pas de progressions fulgurantes pour les techniques encore émergentes, qui ne se diffusent donc qu’assez progressivement

    2. Une progression continue du on-line (et des études sur mobile) côté « quanti »

    Le on-line poursuit sa progression, avec un taux d’usage qui dépasse désormais la barre des 80% (+ 4 points en un an), avec un effet de cannibalisation des modes de recueil par téléphone et en face-à-face. Il faut aussi noter une progression réelle mais néanmoins modérée des études sur mobile (+ 4 points), dont le taux d’usage s’établit à 27%. N’en déplaise à ceux qui décrivent le neuromarketing comme étant la grande tendance du moment, cette pratique reste néanmoins encore peu diffusée (taux d’usage à 5%)

    3. Des contraintes budgétaires qui pèsent lourdement sur les choix en termes de mode de recueil.

    Parmi les principaux facteurs qui drivent les évolutions des choix effectués quand aux modes de recueil, figure naturellement en très bonne place l’accroissement de l’usage par le public des mobiles et de l’ensemble des terminaux numériques. Mais il est clair que les contraintes budgétaires sont bien là, et sont fortement mis en avant dans les facteurs d’évolution des pratiques, en particulier dans les zones telles que l’Europe, mais aussi l’Amérique du Nord

    4. Les techniques du futur : les communautés on-line, les études sur mobile et l’analyse des réseaux sociaux

    Les chiffres parlent d’eux-mêmes. L’usage des communautés on-line, les études sur mobile et le « social media analytics » viennent naturellement en tête de liste des techniques du futur, avec des taux d’usage déjà relativement élevés (respectivement 49%, 41% et 36%), et surtout des perspectives de diffusion encore significatives au regard de la proportion d’acteurs qui envisagent de les utiliser (respectivement 33%, 41% et 40%). Il faut cependant ajouter à ce trio le « text analytics » et les « big data analytics », pour lesquels les taux de considération sont de 35 et 38%.

    L’étude qualitative menée auprès des annonceurs met en évidence le fait que ceux-ci ne considèrent cependant pas ces nouvelles techniques comme devant se substituer aux techniques traditionnelles, la logique de complémentarité s’imposant très clairement.

    5. Des annonceurs plus intéressées par les nouvelles méthodologies que par les nouvelles technologies.

    Qu’ils soient côté instituts ou côté annonceurs, les professionnels évoquent les mêmes grands enjeux comme principaux facteurs d’évolution des études, le trio de tête étant l’exploration de nouvelles méthodologies, l’exploration de nouvelles technologies, et le fait de devoir faire « plus » à ressources constantes. Les annonceurs sont néanmoins (et sans surprise) les plus sensibles quant à ce dernier aspect. Et ils accordent relativement plus d’importance aux nouvelles méthodologies qu’aux nouvelles technologies !

    6. Des critères de choix des sociétés d’études qui continuent à faire la part belle à la qualité de service et aux dimensions relationnelles

    De l’aveu de l’équipe de Greenbook, il ressort une grande stabilité quant aux critères les plus déterminants dans le choix des sociétés d’études par leurs clients annonceurs, le top 5 de ces critères (et quasiment à égalité) étant : 1) la qualité d’écoute et de compréhension des besoins ; 2) la qualité de la relation ; 3) la compétence technique du staff ; 4) la familiarité avec les besoins des clients et enfin 5) la capacité à respecter les délais convenus

    Le module qualitatif n’apporte sans doute pas des éclairages très surprenants mais rappelle néanmoins quelques points clés dans la relation entre annonceurs et sociétés d’études :

    -       une nette prédominance du bouche à oreille dans les processus de recherche de nouveaux fournisseurs pour les annonceurs

    -       une importance déterminante de la qualité des relations personnelles

    -       le sentiment d’une faible différenciation des sociétés d’études en tant que marques

    -       un discours des sociétés d’études et de leurs représentants insuffisamment orientées vers les besoins des annonceurs (et trop polarisé sur ce qu’ils ont à vendre)

    -       Une bonne perméabilité des annonceurs vis à vis du « content marketing » des sociétés d’études

    7. Brain Juicer, Vision Critical et Ipsos perçu comme les sociétés d’études les plus innovantes dans l’univers de la recherche marketing

    Last but not least, l’étude comprend un volet visant à identifier les sociétés les plus innovantes. Brain Juicer, Vision Critical et Ipsos s’adjugent les trois premières places avec respectivement 400, 203 et 202 mentions en sponatané. Dans un deuxième mode de classement (qui regroupe les marques en fonction des groupes capitalistiques), le podium se modifie avec là encore Brain Juicer en tête, suivi de Kantar, Ipsos et Vision Critical.


     POUR ACTION 

    Commenter 

    • En savoir plus sur l'étude  : @ Greenbook GRIT

    • Partager sur LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Livres, publications / Vie de la profession / Résultats d'études /
  64. Le point sur l’usage des réseaux sociaux en France – Résultats du baromètre annuel Harris Interactive, Social Life 2014

    10 févr. 2014

    Pour la deuxième année consécutive, l’institut Harris Interactive a publié les résultats de son baromètre Social Life, dont la vocation est de mesurer les niveaux de pénétration et d’usage des différents réseaux sociaux, et plus largement les évolutions des profils et des comportements de ses utilisateurs. Une bonne occasion donc de trouver des réponses objectives à quelques interrogations clés parmi lesquelles la confirmation ou non d’une érosion de Facebook, la réalité de la progression de Twitter ou de réseaux plus émergents comme Pinterest, et bien sûr la grande question de savoir si les comportements des socionautes évoluent dans des conditions (enfin) plus favorables aux marques…

    Les principaux résultats publiés par Harris Interactive sont les suivants :

    1. Le profil des socionautes et les réseaux utilisés

    Si la proportion de socionautes en France reste constante depuis un an (79%), Harris Interactive confirme néanmoins des mouvements sur certaines tranches d’âges d’utilisateurs, tels que le recul des 25-34 ans mais l’adoption accrue par les 50 ans et plus.

    Le leader historique Facebook domine toujours le haut du tableau avec 61% d’internautes actifs (l’ayant utilisé au cours des 30 derniers jours). Bien que l’on observe des niveaux d’activités en baisse sur les moins de 35 ans, la part d’inscrits reste stable et 62% des socionautes actifs classent Facebook en tête des réseaux « indispensables ».

    Youtube (23% d’actifs), puis Google + (21% d’actifs) et Twitter (13% d’actifs) complètent le peloton. En parallèle des « gros » réseaux, de nouveaux réseaux sociaux émergent : Soundcoud (4% d’inscrits), Snapchat (2%), Vine (1%). D’autres acteurs dont la croissance déjà évaluée en 2012 se confirme en 2013 : Pinterest et Vimeo. A l’inverse d’autres sites sont stables et ne (re)décollent pas : Skyrock, flicker, myspace, tumblr et Path.

    2. Les principaux usages sur les réseaux sociaux

    Dixit les équipes d’Harris Interactive, la plus forte surprise de ce baromètre est l’évolution des usages qui tendent vers moins « d’intimité » mais plus de « consommation ».

    Cette mutation des usages se manifestent en particulier par les fortes évolutions enregistrées quant aux grandes familles de socionautes sur la base de la typologie réalisée par l’institut : les profils « Intimes » reculent fortement, tandis que les « Socio-Conso » voient leur poids quasiment doubler depuis la précédente mesure.

    Elle se traduit également par deux évolutions particulièrement marquantes :

    -       La part des socionautes qui déclarent parler de leur vie privée sur les réseaux sociaux  est tombée à 44%, soit -9 points par rapport à septembre 2012

    -       Dans le même temps, le poids des socionautes déclarant utiliser les réseaux sociaux dans le but de réaliser un achat est passé de 23% à 39% ( !)

    3. Un rapport à la marque qui diffère selon les secteurs

    Si 34% des socionautes déclarent suivre un média ou une émission sur les réseaux sociaux, plus d’un sur deux déclarent suivre l’actualité d’une marque (ils étaient seulement 40% en 2012). Ils sont d’ailleurs plus d’un tiers à déclarer suivre, « liker » ou échanger régulièrement avec une marque, un produit ou une entreprise sur ces réseaux.

    Il faut noter cependant que tous les secteurs n’attirent pas les mêmes comportements de la part des socionautes. Ainsi le secteur du Multimédia/IT est celui où les socionautes parlent le plus positivement de la marque. A contrario, c’est dans le secteur de l’alimentation que les pages des marques enregistrent le plus grand nombre de messages négatifs.

    Bien que l’intégration des outils de transaction sur les réseaux sociaux soit aujourd’hui quasi nulle (hormis les essais de Facebook avec son bouton « I want »), force est de faire le constat qu’ils deviennent des portes d’entrées prioritaires vers le web marchand.

    Pour Harris Interactive, cette évolution entre en résonance avec un profil de socionautes plus matures, enclins à entrer dans ce mode de relation plus consumériste sur les réseaux sociaux. Cette relation reste néanmoins fragile selon l’institut qui émet l’hypothèse d’une réaction assez clivée. Le risque est réel d’une rupture du lien avec une partie sans doute minoritaire des socionautes, alors que la majorité de ceux-ci devrait accueillir  favorablement ce mode de relation qui induit les marques à être plus orientées clients. Dans ce contexte, Harris Interactive souligne l’importance croissante pour les marques à savoir à qui elles s’adressent et comment elles doivent le faire, afin d’anticiper les risques ou au contraire d’exploiter les opportunités relationnelles avec les socionautes.

    Nota : Enquête réalisée en ligne en novembre 2013 par l’institut Harris Interactive. Echantillon de 2000 individus représentatifs de la population française internaute âgée de 15 ans et plus. Méthode des quotas et redressement appliquée aux variables suivantes : sexe, âge, catégorie socioprofessionnelle et région de l’interviewé(e).

    Cliquer ici pour Pour visualiser l'infographie


     POUR ACTION 

    Commenter 

    • Visualiser l'infographie : cliquer ici

    • En savoir plus sur l'étude  @ Info Harris Interactive

    • Partager sur LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Livres, publications / Marque / Résultats d'études /
  65. Facebook et le marketing en 16 questions, et 16 réponses ! (vu sur marketing-professionnel.fr)

    6 févr. 2014

    Voici un tandem qui n’a de cesse de susciter des questions, lesquelles ne manqueront pas de se poser et de se reposer encore dans les années à venir. Parmi les nombreux dossiers consacrés à ce sujet dans les media et la blogosphère, nous ne pouvons qu’encourager nos lecteurs à découvrir celui que lui a consacré il y a quelques semaines le site Marketing Professionnel, qui s’était précédemment intéressé au thème de "Twitter et le marketing ».

    Ce sont en effet pas moins de 16 questions particulièrement pertinentes de notre point de vue pour la communauté des marketeurs et des gestionnaires de marque qui donnent la matière de ce dossier tout à fait passionnant (…)

    Ces 16 questions sont reprises et/ou reformulées ici dans leur exhaustivité ici :

     

    avec les réponses et les éclairages d’autant d’experts que de questions, dont nous vous souhaitons donc bonne lecture.


     POUR ACTION 

    Commenter 

    • Partager sur LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Marque / Revue de web /
  66. L’anniversaire d’un acteur singulier dans le paysage des études marketing : Strategic Research

    3 févr. 2014

    Deux mondes se côtoient, s’observent, s’ignorent ou se regardent même parfois en chiens de faïence : celui des instituts d’études marketing d’un côté, et de l’autre celui des cabinets de conseil. Quelques rares acteurs échappent cependant à la règle générale, en refusant cette dichotomie, ou en mettant en tout cas en avant le fait que cette barrière n’a rien d’infranchissable.

    Fondé et dirigé par Michaël Bendavid, Strategic Research fait à l’évidence partie de ces acteurs quelque peu singuliers. A l’occasion de l’anniversaire des 10 ans de la société, son directeur-fondateur répond aux questions de Market Research News.

    Market Research News : un anniversaire est une célébration pour une entreprise, mais c’est aussi l’occasion de faire un point d’étape en revenant sur son identité. Comment définiriez-vous en quelques mots l’ADN de Strategic Research ?

    Michael Bendavid : Strategic Research est né il y a dix ans sur la base d’un constat très simple, celui de la banalisation des études marketing. Ce phénomène de banalisation fait naturellement partie du cycle de vie de tout marché, et il n’y avait donc pas de raison que celui des études échappe à la règle.

    Le fait est que l’on observait une perte d’influence des instituts auprès des directions marketing et des directions générales. Et dans le même temps, on voyait les cabinets de conseil préempter certains sujets traditionnellement couverts par les instituts. D’abord parce que cela faisait partie du développement naturel des cabinets de conseil dès lors que les entreprises mettaient le consommateur au centre de leur stratégie ; mais aussi parce que les instituts d’études restaient souvent cantonnés dans des questions ponctuelles ou tactiques. De là est née l’idée de notre proposition, celle d’un partenaire qui maitriserait la technicité des études mais qui la mettrait au service de questions à fort enjeu pour les entreprises. 

    Est-ce si difficile pour les cabinets de conseil d’intégrer cette technicité Etudes ?

    Les cabinets de conseil disposent de gros atouts : des ressources humaines de grande qualité, une culture de l’accompagnement du client et de la gestion de projet. Et souvent, un côté « tout terrain », moins dogmatique. Ils peuvent aussi être particulièrement innovants sur des aspects de méthode.

    Mais le plus souvent, leur culture marketing laisse à désirer, leur focalisation sur le résultat les rend moins regardants sur la façon d’y arriver et enfin ils sont maladroits quand il s’agit d’écouter et de comprendre les consommateurs. C’est leur point faible relatif de notre point de vue. Cela laissait donc la place à un acteur comme nous, animé par l’ambition de proposer une alternative avec à la fois une réelle culture étude mais aussi une capacité à la mettre au service de problématiques de marketing stratégique.

    Il y a bien sûr une autre composante, qui est tout simplement celle de ma trajectoire personnelle. Je suis un homme d’études, mais j’ai passé quelques années dans le conseil, chez Bossard Consultants. Et quand j’ai fondé Strategic Research, je me suis associé au cabinet Izsak Grapin & Associés pour joindre nos forces sur des projets de marketing stratégique. J’en profite pour rendre hommage au regretté Arnold Izsak, dont il est difficile de décrire l’impact considérable qu’il a eu sur les personnes qui ont eu la chance de travailler avec lui. J’avais en tout cas cette double culture, qui me faisait considérer qu’une synthèse était possible et même souhaitable.

    Quelles sont plus précisément, les problématiques incluses dans ce périmètre des études stratégiques ?

    Je pense que cela concerne au moins cinq grands domaines. Un sujet comme celui de la segmentation d’un marché fait typiquement partie de ces problématiques : savoir comment définir et cartographier son marché est à l’évidence une question à la fois très ouverte et stratégique pour une entreprise. Les enjeux de marque, que nous adressons avec les problématiques de positionnement, de mesure du capital de marque et d’extension des territoires de marque. L’innovation, notamment quand il s’agit de mettre à jour des innovations de rupture, par opposition aux innovations incrémentales. La question du positionnement prix, plus encore quand on la pose au niveau de la marque ou de l’offre et pas seulement au niveau du produit ou de la référence. Enfin, on peut ajouter à cela toutes les grandes questions portant sur l’efficacité du marketing, je pense à des sujets comme l’allocation des dépenses marketing ou le ROI des actions.

    Une autre réponse, moins qualifiée mais qui définit bien notre territoire d’action : une étude stratégique c’est une étude dont l’enjeu pour notre client est primordial. Nous travaillons par exemple avec un de nos grands clients sur la sélection des messages publicitaires. Ces projets sont clés à double titre : les budgets de ces campagnes sont très importants à l’échelle de l’Europe. Et de l’efficacité de la campagne dépend le revenu de notre client. Nous sommes faits et organisés pour ce genre de sujets.

    Vos concurrents, et je pense en particulier aux plus gros instituts, ont également vocation à être présents sur ces études stratégiques…

    Bien sûr. Mais il est plus difficile pour un institut généraliste de gérer à la fois un gros volume d’études tactiques et de mobiliser les ressources, souvent un peu plus séniors, que nécessitent ces projets plus délicats. C’est une question d’organisation, de profil de ressources et de focus. Et il faut admettre que même le marché des études est segmenté ! Chacun des acteurs investit un territoire sur lequel il revendique des atouts concurrentiels. Notre positionnement et notre savoir-faire est celui des études à forte valeur ajoutée. Nous ne sommes pas les seuls mais nous pensons être très armés sur ce terrain et notre croissance nous renforce dans cette conviction.

    Un autre point nous différencie des leaders. Chez nos clients, nous travaillons de fait avec les équipes études. Mais une fois sur deux, notre point d’entrée chez le client a été la direction marketing ou la direction générale. C’est le résultat de notre positionnement et de notre marketing si je puis dire. Il est plus difficile pour un gros institut de s’adresser à d’autres interlocuteurs que les gens d’études, il y a une forme d’auto-censure ou de crainte de froisser des susceptibilités. Notre point de vue est de dire : nous sommes ravis d’entretenir d’excellentes relations avec les responsables études qui ont une vision stratégique de leur métier. Mais pourquoi faudrait-il limiter les échanges avec cette seule fonction dans l’entreprise ? Nos interlocuteurs naturels sont les fonctions études mais nous sommes  au service des entreprises.

    Quel bilan dressez-vous aujourd’hui, à l’occasion de ces dix ans ?

    Le premier point positif est que nous sommes toujours en vie ! Cela semble corroborer le fait qu’il y avait bien un marché pour notre proposition. Strategic Research reste une petite structure, que nous avons fait grandir pas à pas, à la fois en incorporant des ressources en interne et en développant un écosystème d’experts externes qui complètent nos savoir-faire. Ce mode d’organisation est une réussite et nous pensons qu’il est la bonne solution pour gérer notre croissance.

    Notre ambition n’est pas toutefois d’être un gros acteur de ce marché car nous visons une part bien identifiée des dépenses études. Mais nous travaillons pour être un acteur de référence des études stratégiques.

    Sur l’évolution du contexte marché sur ces dix ans, quels sont les points qui vous semblent les plus marquants ?

    Il est clair que nous avons assisté à la poursuite des tendances évoquées précédemment, et qui nous ont donné l’idée de créer Strategic Research. Si c’était donc à refaire, je n’hésiterais pas une minute ! Ce phénomène de « commoditisation » s’est poursuivi et même accentué avec l’arrivée de nouveaux acteurs comme les fournisseurs de software par exemple ou certains panélistes qui développent des offres de service. Ces offres attirent une certaine typologie de clients.

    Mais je pense que les impacts les plus radicaux sont à attendre de deux types d’acteurs.

    D’abord Google, avec Google Consumer Surveys, qui devrait démocratiser l’usage des études et donner un accès aux études à des entreprises qui n’avaient pas jusqu’ici des budgets pour le faire. Au-delà de ce nouveau marché, on peut parier que Google va faire beaucoup de mal aux instituts qui n’ont pas de réelle spécificité et qui sont ancrés dans l’étude de base ou la collecte de données.

    Par ailleurs, des sociétés qui ont des compétences de traitement et de modélisation fortes et des choses à dire autour du Big Data, je pense par exemple à Captain Dash ou EkiMetrics. Ces acteurs ouvrent de nouveaux horizons, suscitent la curiosité des clients. On peut là aussi parier sur le fait que certains sujets comme la satisfaction client par exemple devraient basculer chez eux : les données sur les clients sont accessibles à moindre coût quand on raisonne sur les ensembles de données massives, et leur capacité à traiter, modéliser, extraire le sens des données dépasse celle de la très grande majorité des instituts traditionnels.

    Je pense toutefois que sur pas mal de sujets, les instituts d’étude offrent la meilleure combinaison de talents, à condition toutefois de ne pas rester ignorants des mutations en cours.  En tous cas, la période qui s’ouvre est passionnante et je pense que toutes les composantes sont réunies pour une sorte d’implosion du marché. Le statut quo ne me paraît plus envisageable, et il va probablement y avoir une redistribution des cartes et des opportunités.

    Quelles sont donc les perspectives pour Strategic Research dans les années à venir ?

    Nous pensons que nos marges de croissance sont larges. Nous avons jusqu’à présent focalisé notre développement sur un nombre limité de très grands clients internationaux, une douzaine, surtout dans les secteurs de la grande consommation et du luxe. Notre stratégie est simple : d’une part augmenter notre part de marché chez nos clients actuels ; de plus, recruter un ou deux grands clients par an. Ce principe nous permet de ne pas disperser nos efforts et nos ressources.

    Nous devons continuer à creuser notre sillon sur les thématiques que nous avons évoquées. Il est frappant et rassurant de constater que chaque projet que nous réalisons permet d’augmenter encore notre degré de maîtrise - alors que nous l’attaquons en pensant que nous sommes dans notre zone de confort. Nous sommes très bons pour capitaliser la connaissance sur un domaine, et le fait que nous soyons focalisés sur quelques sujets nous aide à être efficaces.

    Par ailleurs, nous nous intéressons à deux sujets. Celui du big data où nous cherchons à identifier quels peuvent être les ponts entre notre pratique des études et cette nouvelle compétence. Et bien sûr au digital, qui amène des bouleversements sur la façon dont nos clients font du marketing.  

    J’imagine que vous avez prévu quelques évènements particuliers à l’occasion de cet anniversaire des dix ans ?

    Nous avons en effet réalisé une étude de grande ampleur sur la question du digital, dont les résultats vont nourrir le numéro de Février-Mars d’Enjeux-Les Echos consacré au digital. Nous avons également un cycle de conférences clients. Et des « white papers » sur un rythme de un par trimestre ; le premier est consacré, sans surprise au digital. Et enfin nous venons tout juste de mettre en ligne une nouvelle version de notre site, en faisant le pari d’une richesse de contenus, avec la présence de cas-clients, qui aident à illustrer concrètement je crois ce que nous savons et aimons faire.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) : @ Michael Bendavid

    • Partager sur LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Interviews / Vie de la profession /
  67. Portrait de la génération des 18-25 ans : Digital Natives ou Crisis Natives ?

    8 janv. 2014

    Il a déjà coulé beaucoup d’encre à propos des Digital Natives, cette nouvelle génération d’individus ayant aujourd’hui entre 18 et 25 ans, que certains ont décrits comme étant les « autochtones du web » : pour ainsi dire arrivée à l’adolescence avec les réseaux sociaux, Facebook en tête, à la fois hyper connectée aux usages numériques et franchement décalée par rapport aux générations précédentes.

    A l’issue d’une étude de fond, FreeThinking propose néanmoins un nouveau portrait de cette génération qui challenge sans doute quelques idées reçues. Véronique Langlois, co-fondatrice avec Xavier Charpentier de FreeThinking, répond aux questions de Market Research News.

    Market Research News : La littérature ne manque pas au sujet des Digital Natives… Pourquoi avez vous ressenti le besoin de mettre en œuvre une étude et de proposer ainsi un nouvel éclairage à leur sujet ?

    Véronique Langlois : Au travers de ce que nous entendons via nos outils, nous avons eu l’intuition que certains aspects régulièrement signalés dans la description de cette génération méritaient d’être challengés. D’autres nous semblaient devoir être creusés. Mais ce besoin et cette intuition se sont sans doute nourris de notre sensibilité et des partis-pris qui sont les nôtres dans l’écoute des individus, que l’on pourrait résumer comme étant ceux des études et de la réflexion collaboratives. C’est ce principe d’approche collaborative qui a été mis en œuvre pour cette recherche qui a mêlé enquête quantitative et investigation qualitative online auprès de 171 jeunes français pendant 12 jours*.

    Cette génération des Digital Natives est aussi appelée Génération C par les anglo-saxons. C comme « content ». Mais vous  soulignez qu’elle est aussi et surtout la génération C comme Crisis !

    Elle est en effet à la fois l’une et l’autre. Il est évident que pour des baby boomers ou des générations plus anciennes encore, ces Digital Natives sont des extra-terrestres. Ce sont des gens nés avec le web, qui n’éprouvent aucune inhibition face à la production du contenu, le fameux « content » des anglo-saxons. Mais, et cela nous semble un point réellement majeur à prendre en compte, ces Digital Natives sont aussi des Crisis Natives, notamment en France. Depuis 2008 au moins, entrer dans l’âge adulte, c’est aussi entrer en Crise !

    Qu’est ce que cela signifie plus précisément, d’être une génération de la crise, ou plus exactement de cette crise-là ?

    Ce n’est certainement pas une génération qui croit aux lendemains qui chantent ! C’est une génération qui a même été plutôt élevée à la dure, en voyant les parents souffrir et changer de monde, passant de la stabilité et de la sécurité à un univers où la précarité et la fragilité constituent un risque omniprésent, et souvent même une réalité. Mais nous ne la qualifierions pas pour autant de génération désabusée. Ces jeunes ne se font pas d’illusions sur ce de quoi l’avenir sera fait, mais ils sont néanmoins plus confiants que leurs ainés, avec un sentiment plus élevé de « contrôle de leur vie ». Il faut toutefois tempérer cette note : leur relatif optimisme a tendance à sérieusement s’éroder aux abords des 25 ans, à l’âge où ils commencent le plus souvent à chercher un emploi... Ce cap des 25 ans apparaît réellement pour eux comme étant celui de la Grande  Bascule.

    Quels consommateurs sont-ils ?

    C’est une génération qui a intégré la nécessité de consommer autrement, et plus profondément de changer d’attitude par rapport à la consommation. Elle a complètement intégré la notion de contrainte, qu’elle assume à son corps défendant, l’usage intensif d’internet étant le bon moyen de composer avec cette donne en traquant les bonnes affaires et en entrant dans une logique de négociation quasi systématique. Par ailleurs, c’est une génération d’individus particulièrement sensibles aux enjeux environnementaux ou sociaux (plus que leurs parents), mais qui assument la nécessité de devoir parfois arbitrer entre une consommation responsable et une consommation économiquement raisonnable. Et ce sont aussi les individus les plus ouverts à la consommation collaborative, qui n’est pas qu’un mot pour eux mais bien une réalité, une réponse parfaitement valide à leurs besoins.

    Et sous l’angle de la citoyenneté, comment les définiriez-vous en quelques mots ?

    C’est une génération qui, on peut s’en douter, fait preuve d’une très grand scepticisme face aux acteurs institutionnels, en qui elle n’a plus confiance du fait notamment de leur déficit d’exemplarité, de leur marge de manœuvre qu’elle sent réduite, et à qui elle reproche aussi de proposer un modèle dans laquelle elle ne se retrouve pas, et qui est trop déresponsabilisant à ses yeux.

    Ils n’ont plus confiance en personne, si ce n’est en eux-mêmes ?

    Non, on ne peut pas dire cela. Ils accordent un certain crédit aux grandes entreprises, dès lors qu’elles sont susceptibles de procurer des emplois ou du pouvoir d’achat. Ils valorisent fortement les PME, en estimant que ce sont souvent elles qui innovent et apportent les progrès les plus intéressants. Mais les acteurs en qui ils ont le plus confiance sont clairement leurs parents. Nous sommes bien loin des représentations à la André Gide : le foyer des parents, c’est celui qui apporte à la fois la protection et le sens des responsabilités.

    C’est une génération que Georges Lewi décrit comme étant celle de l’illusion, la génération Bovary, tout en lui attribuant une forme de réalisme. Votre vision est manifestement assez éloignée de la sienne…

    Oui, en effet. Ce qui nous paraît assez frappant, c’est le fait d’avoir affaire à une génération pour laquelle passer de l’enfance à l’âge adulte n’est pas tant une éclosion qu’un combat. L’enjeu pour eux n’est pas tant de « trouver sa place », mais de « faire sa place ». Cela demande de l’énergie, une certaine dose de confiance en soi, mais aussi un réalisme qui peut tendre vers une forme de fatalisme. La notion de risque n’est pas une abstraction pour eux, cela fait complètement partie de la donne. C’est donc une génération pour qui un des impératifs les plus intégrés est celui de « s’assumer », avec une conscience particulièrement développée du fait que l’autonomie passe d’abord par la composante économique, avec ce que cela suppose en termes de réalisme et de prudence. Au fond, c’est une génération qui n’en finit pas de redécouvrir des valeurs fort simples et étonnamment traditionnelles : la famille, le mérite, la solidarité, le travail… Ce sont vraiment des enfants de la crise d’aujourd’hui !

    * Génération C, Génération Crise, FreeThinking Septembre 2013. L’étude reprend les éléments spécifiques aux 18-25 ans de l ‘étude Europe 2013 réalisée pour Publicis Groupe en mai 2013 avec Ipsos et procède d’une investigation qualitative online spécifique. Cette investigation spécifique a été menée sur le thème « Etre jeune et responsable en 2013 » sur la plateforme collaborative fermée de FreeThinking auprès de 171 jeunes de 18 à 24 ans, de classes moyennes et issus de classes moyennes, rassemblés autour de 4 thèmes de discussions spécifiques, pendant 12 jours.


     POUR ACTION 

    Commenter 

    • Echanger avec l'interviewé(e) et/ou demander une présentation de l'étude : @ Véronique Langlois

    • Partager sur LinkedIn

    • Vous tenir informé de l'actualité sur Market Research News

    Interviews / Résultats d'études /
  68. Market Research News : notre best of 2013

    6 janv. 2014

    Qu'avez vous donc lu sur Market research News en 2013 ? Nous nous livrons bien volontiers à ce grand classique des fins ou des débuts d'années, avec le top ten des articles et dossiers qui ont suscité la plus forte curiosité de la part de nos lecteurs sur ces 12 derniers mois (en dehors des pages dédiées à l’actualité pratique) et qui fait à nouveau la part belle à nos dossiers thématiques.

    1. Baromètre Market Research News – Callson : les 6 tendances clés pour 2013

    Ce thème avait obtenu la 2ème place en 2012, et il est clairement en 2013 celui qui a suscité le plus fort intérêt de votre part sur la base du nombre de lectures. Il y a naturellement motif à satisfaction de notre part ainsi que de celui de Callson, qui avons été à l’initiative de la création de ce baromètre, soutenue par Esomar France et Syntec Etudes Marketing et Opinion, avec l’interrogation de 300 directeurs ou responsables des études côté annonceurs. En attendant la prochaine édition, nous ne pouvons donc qu'inviter ceux qui n'en n’ont pas encore eu l'occasion de découvrir les grandes tendances en cours du côté des acheteurs d'études, en version résumée ou développée.

    2. Big data : tarte à la crème ou révolution pour les études marketing ?

    Voilà un dossier que nous avions hésité à lancer compte tenu de l’intensité du « battage » médiatique sur ce thème… Et pourtant, il a été le dossier le plus lu de l’année, en faisant manifestement écho à une réelle interrogation. Nous vous proposons donc de retrouver les différentes voix qui se sont exprimées sur ce thème avec les interviews  de Dominique Lévy-Saragossi et Gildas Vignaud (Ipsos), Luc Milbergue et Quentin Michard (Stratégir et EkiMetrics), de Philippe Drobniak (Enov Research), Thierry Vallaud (SOCIO Logiciels), Diouldé Chartier-Beffa (D'Cap Research), Christophe Ralle (Ystahd), sans oublier le point de vue de la rédaction. 

    3. Comment réussir son marketing auprès des enfants ?

    Cela constitue une petite surprise pour nous, ce dossier ayant été constitué il y a près de deux ans maintenant ; mais il continue à faire partie de vos articles favoris, ce qui témoigne de la constitue de votre curiosité quant aux conditions de succès à mettre en oeuvre auprès de cette cible essentielle. Nous vous proposons donc de retrouver ce dossier, avec les interviews de Catherine Finet (Catherine Finet Conseil), Sylvie Gassmann (Ipsos France) et Catherine Pinet-Fernandes (Institut des Mamans)

    4. Comment mieux concilier satisfaction-client et rentabilité ?

    Voici à contrario un dossier sur lequel nous aurions été prêt à prendre des paris quant à son "succès" compte-tenu de l’importance de cette interrogation pour les équipes études et marketing travaillant côté annonceurs. Il vient donc tout naturellement en très bonne place dans ce classement, avec en volet 1 les interviews d'Alexandre Guérin et Marie-Paule Bayol (Ipsos), Jean-François Levionnois (LH2), Guillaume Antonietti (Côté Clients) et en volet 2 celles de Christian Barbaray (INIT), Thierry Backer (Harris Interactive), Simon Pioche (GN Research) ainsi que le point de vue de la rédaction.

    5. Des études de satisfaction, pour quoi faire ?

    Toujours autour de cette grande problématique de la satisfaction-clients, nous retrouvons en bonne place dans vos lectures un des tout premiers dossiers de Market Research News.  L’intérêt de que vous avez pu avoir pour celui-ci montre qu’à l’évidence, ce ne sont pas nécessairement les études les plus pratiquées qui suscitent le moins d’interrogations. Nous vous invitons donc à redécouvrir les conseils et les interviews d’Antoine Moreau (Ipsos), Guillaume Antonietti (Côté Clients) et Daniel Ray (Grenoble Ecole de Management)

    Viennent ensuite 5 articles faisant également partie de ce top 10 :

    6.  " Comment détecter le plus vite possible les meilleures idées ? », un double dossier spécial « innovation » avec en volet 1 les interviews de Pascale Dor (ID View), Diouldé Chartier-Beffa et Michael Bendavid (D'Cap Research et Strategic Research), Franck Saunier et François Abiven (Repères) et en volet 2 celles d'Amaury de Beaumont (Ipsos), Richard Bordenave (BVA), et Laurent Flores (CRM Metrix - Metrix Lab).

    7. "Comment réussir ses segmentations de marché ? », notre dossier spécial dédié à cet enjeu stratégique essentiel des bonnes découpes des marchés avec les interviews d'Eric Lombard (Numsight), Philippe Perié (Ipsos France), Laurent Courtel et Guillaume Breban (Cataliz Research) 

    8. « Que faut-il penser des études on-line ? ». Là encore, voici l’exemple d’une pratique d’études largement répandue, et qui continue visiblement à susciter des interrogations assez nombreuses. Avec des réponses qui restent sans doute d’actualité : cf. les interviews de Nicolas Hebert (Sorgem), Isabelle Goisbault (Stratégir), Frédérique Alexandre (Ipsos), et le point de vue de la rédaction.

    9. « Comment connaître les consommateurs s’ils ne veulent plus répondre aux études ? », notre premier dossier de l’année 2013, avec les interviews de Patrick Van Bloeme (Harris Interactive), Philippe Guilbert (Toluna), Mustapha Smail (Le Terrain)

    10. Et last but not least, un article qui ne fait partie des dossiers mensuels mais de cette rubrique "vu-lu-entendu" avec l’interview de Mary Le Gardeur (Mix & Match) sur un thème qui semble manifestement sensible :