Le baromètre 2019
MRNews-Callson

Vu, Lu & Entendu

L’analyse des tweets à des fins d’étude, et l’exemple des présidentielles 2012 : interview de Malik Larabi, directeur de Somme Toute / Netscope.

10 juil. 2012

Ces dernières élections présidentielles ont donné lieu à un engouement assez spectaculaire des médias pour Tweeter, et notamment pour les analyses d’opinion effectuées à partir de ce medium.

Nous revenons avec Malik Larabi, directeur et co-fondateur de Somme Toute, sur les enseignements que l’on peut tirer quant à l’usage de Twitter et plus largement des réseaux sociaux à des fins d’études marketing.

Market Research News : A l’occasion de ces dernières élections présidentielles, vous avez participé à cette exploitation des réseaux sociaux à des fins d’analyse politique. Qu’avez-vous fait plus précisément ?

Malik Larabi : Somme Toute s’est appuyé sur le travail important de deux thésards chercheurs en Sciences Politiques de l’Université de Montpellier 1, et a proposé un partenariat à l’Express.fr, qui a publié plusieurs études Netscope. Nous avons également accompagné très en amont deux candidats et leurs équipes numériques à l'élection présidentielle. Nous avons donc une expérience de 8 mois de suivi autour de la campagne présidentielle, conduite particulièrement sur Twitter mais aussi sur la blogosphère, Facebook et les forums.

L’analyse des tweets permettait-elle de prévoir l’élection de François Hollande ?

Les médias prêtent souvent aux sondages ce pouvoir de prédiction. En réalité, les sondeurs ne revendiquent pas cette capacité, et l’analyse sur Twitter ne nous semble pas plus fondée à le faire. L’engouement des médias, qui a été vraiment très important, a peut-être favorisé une certaine lecture, qui apparente les données produites à partir de la twittosphère à ceux des sondages et assimile les tweets à des intentions de vote. Cette lecture est en partie imputable à la jeunesse de ces outils, avec le manque de recul que cela peut engendrer. Elle nous semble en tout cas clairement à bannir !

Qu’est ce qui fonde votre position ?

Quelques grandes raisons font qu’il n’est décemment pas possible de comparer une volumétrie enregistrée sur Twitter avec les données d’un sondage d’opinion.

Dans le cas des sondages, l’espace sur lequel on travaille est clairement circonscrit : un échantillon « garantit » la représentativité de la cible considérée. Tandis que sur Twitter, on a à faire à un espace mouvant, mal connu, ceux qui s’expriment peuvent être différents à mesure qu’évolue la campagne. On travaille ainsi à partir de l’expression des individus « Twittos » avec une méconnaissance importante de leurs profils. Par ailleurs, dans le cas des sondages, on répond à une question posée univoque, tandis que sur Twitter, on réagit de manière erratique aux stimuli de l’actualité. Enfin, dans le cas des sondages, la réponse positionne un individu par rapport à une question, et c’est bien cette question qui donne son sens à la réponse (par exemple une intention de vote). Alors que sur Twitter, les seules volumétries ne disent rien des opinions, ne permettent pas de préjuger de la tonalité du buzz (dans quels termes parle-t-on des candidats - positif, négatif, neutre…), ni d’ailleurs de qui parle (citoyens lambda, militants, leaders d’opinion, voire robots…).

Il n’y a pas que les volumétries avec Twitter ?

L’analyse sur Twitter gagne effectivement en intérêt lorsqu’elle porte sur un double niveau : celui de la volumétrie, mais aussi de la tonalité.  On pourrait à cet égard imaginer une sorte d’indice composite des deux dimensions mais, même avec un indicateur de ce type, les données recueillies n’auraient pas la valeur cardinale d’un sondage. Et la comparaison purement formelle des résultats d’une étude conduite sur Twitter à ceux d’un sondage se ferait aux dépens de la première.

L’analyse des tweets ne remplacera donc jamais les sondages…

Implicitement, on fait souvent entrer les démarches en rivalité, en postulant parfois même leur substituabilité, alors qu’une posture ouverte serait de viser des formes de complémentarité, ou encore de faire l’hypothèse du caractère disjoint de leurs objets. Le risque est de passer à côté du potentiel novateur de la démarche d’analyse des réseaux sociaux pour la tenir à l’étroit dans un cadre qui ne devrait pas être le sien.

Le point de différence entre une approche traditionnelle d’étude et celle que nous impose Twitter (ou tout autre réseau social) commence avec le fait que dans un cas c’est un individu connu, choisi pour ses caractéristiques qui exprime une opinion, tandis que dans l’autre on dispose d’une opinion, d’un discours, d’un énoncé sans ou avec peu de références à son émetteur … Ce qui « dérange » au fond, c’est de ne pas savoir qui parle, en réalité depuis où l’on parle (à quel groupe social l’individu qu’on soumet à la question appartient-il ou peut-il être rattaché) et partant, quelles références implicites le relient à son discours. C’est cette  recherche d’explications causales fondées sur un principe supérieur (présente dans toute démarche études) à laquelle nous renonçons pour nous engager sur la voie d’un changement de paradigme, qui nous semble pouvoir s’avérer fécond.

Quels sont les postulats d’analyse qui ont été les vôtres dans le cadre de ce suivi des présidentielles ?

Nous avons posé le postulat que pour aborder les contenus du web durant la campagne présidentielle, le principe méthodologique le plus pertinent serait de suivre les émissions de contenus (volume et tonalité), leurs circonstances d’émission (l’actualité, le contexte), leur récurrence, leur rémanence, leurs modalités de circulation… sans grille de lecture a priori. Tout en conservant bien à l’esprit que l’enjeu véritable n’est pas tant celui de la méthode utilisée, que celui de la qualité de représentation de la réalité.

C’est ce travail de suivi du buzz et de la tonalité des tweets sans a priori (idem sur les blogs, Facebook et les forums) que nous avons réalisé à partir des données recueillies, structurées et consolidées avec le logiciel AMI Opinion Tracker. Différentes sources étaient observées,  Twitter de façon exhaustive, y compris pour des volumétries très élevées comme ce fut le cas lors de la campagne.

Et quels enseignements en avez-vous tirés ?

Il nous semble qu’il y a trois points importants à retenir. Tout d’abord, il faut avoir cette conscience qu’avec Twitter, nous avons assisté à la naissance d’un nouveau moyen d’expression massif des opinions,  au même titre que les blogs l’avaient été lors de la campagne des Présidentielles de 2007. Rien que sur Twitter, le nombre de messages a plus que doublé entre janvier et avril : on est passé de 1 400 000 à 3 millions, avec le nombre record de 2 800 000 en quinze jours, entre les deux tours de l’élection.

Nous avons pu aussi apprécier l’extrême réactivité de la twittosphère, sa capacité à restituer rapidement et très correctement les variations de l’opinion, ses inflexions, ses points de sédimentation, aussi bien en intensité (variations des volumétries) qu’en qualité (tonalité). Pendant le débat Sarkozy / Hollande du second tour, ont été émis plus de 300 000 tweets, avec parfois 2000 tweets par minute pour chaque candidat !

On a pu observer enfin que l’analyse au long cours des données recueillies avait du sens. Ainsi sur la longue période, les tendances dégagées se sont avérées conformes à la réalité. Par exemple, le rythme de progression du buzz de l’ouverture de la campagne officielle de l’élection présidentielle à la veille du premier tour a progressé de manière bien plus soutenue (trois fois supérieur) pour François Hollande que cela n’a été le cas pour Nicolas Sarkozy. Dans le même temps, la tonalité du buzz était plus négative pour Nicolas Sarkozy qu’elle ne l’était pour François Hollande. Indiquant ainsi une dynamique de campagne plus favorable à François Hollande qu’à Nicolas Sarkozy. Déjà, lors de la primaire écologiste, nos analyses sur twitter montraient bien qu’Eva Joly avait largement pris l'ascendant sur Nicolas Hulot sur les réseaux sociaux militants, ce que peu d'observateurs avaient relevé.

Qu'est-ce que cet exemple permet d'apprendre qui soit transposable à un plan marketing plus large ?

Là encore, il est difficile d’avoir une réponse définitive, même s’il y a quelques certitudes claires. Un : Il circule de manière permanente des opinions et des idées sur les différents réseaux sociaux, dont Twitter. Deux : Ces opinions constituent une part non négligeable de la circulation des idées qui s’expriment et que s’emploient à reproduire (en laboratoire) les études d’opinion ou marketing. Trois : Cette masse d’informations est immédiatement disponible sur la toile dès lors qu’on sait la capter, la traiter et l’analyser (sur ce point, les progrès sont importants mais les marges de progrès le sont sans doute plus encore). Elle constitue un accès à la connaissance des objets qu’on se fixe d’étudier (connaissance de l’opinion, connaissance des consommateurs…). Quatre : Cette masse d’informations est constitutive de la réalité. Elle contribue à la forger voire à la modifier (cf. l’impact de l’usage contestataire des réseaux sociaux dans un certain nombre d’événements majeurs, particulièrement Facebook et Twitter).

Mais d’autres aspects sont plus incertains : qu’en est-il de la diversité des réseaux sociaux, et de leur durée de vie ? Quel sera en particulier le statut de Twitter, en soi et par rapport aux autres réseaux sociaux ?

Que pensez-vous plus largement des différentes options que l’on voit à l’œuvre aujourd’hui dans l’exploitation du web à des fins d’études ?

On voit en effet des grandes options, qui ont chacune leurs limites…

La plus ancienne et la plus classique consiste, à l’aide de moteurs de recherche et d’outils de traitement statistique et lexicographique, à rechercher à partir de requêtes (mots clés, illustrant un sujet d’études) ce qui se raconte sur l’ensemble du web accessible… La difficulté est dans ce cas que l’on génère des quantités parfois astronomiques de contenus, pas très bien ciblés (ni dans le temps, ni sur le champ étudié) et au final pas toujours exploitables.

On voit émerger une voie médiane entre les approches traditionnelles d’études et les contenus du web, qui consiste à créer avec plus ou moins de bonheur des communautés ou des lieux d’expression sur une thématique, une marque, un produit, pour y faire venir un public ciblé et ainsi pouvoir l’écouter. Mais l’expérience montre que cela ne fonctionne pas toujours bien, soit parce que le public n’est pas dupe de la démarche, soit qu’il la détourne pour l’utiliser à d’autres fins. On perd ainsi en spontanéité d’expression qui est pourtant l’une des promesses du web pour le domaine des études. Cette approche a aussi pour inconvénient majeur son tropisme études, qui consiste à réintroduire le préalable d’une connaissance des individus, avec la promesse d’une précognition des objets étudiés.

Quelle est votre philosophie en la matière ?

La démarche à laquelle Somme Toute travaille pour son approche Netscope vise à préserver ce qui nous parait être l’une des richesses de l’expression sur le web, son caractère  spontané et dynamique.

A partir d’un objet d’étude quel qu’il soit (une image, un lancement de produit, un usage de service…), le principe est de circonscrire des espaces de discours constitués d’un double niveau. Celui des contenus, que l’on peut aborder avec des techniques traditionnelles (pour inventorier les registres de discours, les dimensionner). Et celui des émetteurs, que l’on peut identifier, dénombrer, et entre lesquels on peut mettre à jour des liens, et la densité de ceux-ci. On éclaire ainsi la question de « qui parle », non pas selon le motif traditionnel de connaissance des individus mais plutôt en identifiant la manière dont ils se relient les uns aux autres, ce qui permet de cerner la logique de diffusion et de transformation des opinions.

Une fois ces espaces de discours circonscrits, leur suivi dans le temps permet d’enregistrer l’évolution des contenus (l’actualité, l’écume), mais aussi de l’espace lui-même. On peut ainsi suivre la dynamique de la structure. Sachant que la diversité des réseaux sociaux offre aussi la possibilité de compléter l’approche d’une dimension supplémentaire relative à la manière dont les réseaux interagissent : pour un même sujet, quels réseaux privilégie t-on ? Comment les opinions s’affectent-elles entre les réseaux ?

Cette façon d’appréhender des espaces de discours est bien celle qui, en l’état de l’art, nous permet d’offrir les meilleurs gages d’une approche maîtrisée de la connaissance des opinions exprimées sur le Web.

> REAGIR - PARTAGER