Dans le monde, il y a deux types de personnes : ceux qui pensent que le monde se divise en deux catégories, et les autres…
Plus sérieusement, dans le monde de la publicité, comme dans tant d’autres (la sociologie, la finance…), on a d’un côté ceux qui cherchent à comprendre et ceux qui sont dans l’action.
Les premiers font ce qu’on appelle des études. Ils collectent des données, cherchent les fondements théoriques de l’efficacité publicitaire, des révoltes sociales, ou des effets de meute en finance.
Les seconds agissent, ils ont des objectifs d’efficacité. Ils optimisent des campagnes, font des discours politiques, ou prennent des positions sur les marchés.
On pourrait croire que ces deux groupes travaillent main dans la main. Que les agissants se nourrissent des études des observateurs. Mais ce n’est que partiellement vrai.
D’un côté, les études ont une temporalité longue. Pour prendre du recul on doit souvent aussi prendre son temps. Les conclusions sont donc souvent fournies après la bataille.
L’action, elle, est immédiate. On doit réagir dans l’instant, mesurer les clics, sentir la foule frémir, ou détecter avant les autres un signal faible du marché.
Les actions bénéficient donc des études mais en différé, et seulement partiellement. Il est difficile d’extraire d’une étude ce qui comptera vraiment pour agir. De même, il est difficile d’étudier ce qui servira dans l’action, et non ce qui semble le plus intéressant au chercheur.
Inversement, les remontées des performances réellement obtenues permettent aux études d’améliorer leur connaissance, de synthétiser les raisons, et de mieux préparer le coup d’après. En théorie.
Souvent donc les études et l’action restent décorrélées. Et la valeur perçue bascule nettement du côté de l’action.
Dans de nombreux secteurs, on dépense en étude entre 1% et 3% du budget total. Pour vérifier qu’on ne flambe pas son budget pour rien, on met en place des contrôles (c’est juste du bon sens).
Pas évident à quantifier pour la sociologie (je ne suis pas spécialiste), mais c’est assurément vrai pour la publicité (1% à 3% pour les études, la mesure, contre 10% à 30% pour l’action). Et en finance, j’ai le sentiment que les ordres de grandeur sont les mêmes (il n’y a qu’à voir les salaires des traders comparés à ceux des analystes).
On le voit dans ce secteur publicitaire que je pratique depuis 25 ans : les études et les achats travaillent souvent peu ensemble. Un trader media m’a un jour expliqué qu’il prenait la recommandation du son service études (la stratégie de l’annonceur pour paramétrer une campagne), et (il joignait le geste à la parole) la jetait à la corbeille ! Il savait que la stratégie était fondée sur des statistiques, et que lui achèterait des data. Il demandait simplement sur quel critère il serait, lui, jugé. Tu veux du clic ? Tu auras du clic !
Cette déconnexion entre les études et les achats pose plusieurs problèmes :
- Un manque de cohérence pour l’annonceur entre sa stratégie et sa réalisation
- Une frustration des équipes études et achats qui d’un côté voient parfois leur travail (études) peu reconnu et de l’autre les acheteurs ne voient que peu l’intérêt des efforts de leurs collègues.
C’est un peu caricatural, mais je me base sur des réflexions réelles que j’ai croisées…
Dans la publicité, les gros acteurs sont souvent qualifiés de walled–gardens. Ils fournissent tous les ingrédients de la publicité : l’espace publicitaire, les données, la mesure, les outils d’optimisation.
Très souvent optimisation rime avec boite noire. Qu’importe le flacon pourvu qu’on ait l’ivresse ? Qu’importe pourquoi ça marche pourvu que ça marche ?

On invoquera alors la complexité des algorithmes d’optimisation. Comment synthétiser des milliers de lignes d’arbres de décision générés automatiquement sur des bases mathématiques complexes ?
Pire encore, l’IA apporte une excuse supplémentaire à l’absence de retour d’expérience. « Vous savez, un réseau de neurones, c’est comme le cerveau humain, on ne sait pas ce qui s’y passe ».
Elle a bon dos la techno !
Il y a aussi de bonnes raisons à ne pas partager tous les enseignements recueillis. Le pouvoir est dans l’information. Si l’annonceur ou l’agence connaissait tous les leviers de performance, elle (je teste l’accord avec le genre le plus proche) valoriserait moins l’outil d’optimisation pour la prochaine campagne.
Des informations sont bien fournies, mais parcellaires, souvent techniques. Comment expliquer pourquoi il est plus efficace de payer 1,23 € de CPM à 22h contre 1,17 à 20h ? Ou pourquoi le cookie 1234abcd vaut plus cher que le cookie 5678efgh ?
Synthétiser ces résultats de manière compréhensible par des humains est une tâche difficile.
L’approche par panel qu’Implcit a développée présente l’avantage de travailler sur des données comportementales d’un panel de volontaires. Les informations collectées sont donc humainement appréhendables : profil socio-démographique, visites de sites, centres d’intérêt….
Ces informations servent à la fois au ciblage, reporting et à l’optimisation des campagnes. On est donc capables de dire :
- On cible les femmes qui sont intéressées par l’écologie (stratégie de l’annonceur)
- On a exposé des femmes à 90%, avec une affinité de 350 sur l’écologie
- On constate que d’autres critères apportent un surcroît de performances : la visite des sites A, B et C, et des critères d’âges par exemple.
La beauté de ce système est qu’il repose sur des concepts marketing, et non techniques (même s’il y a beaucoup de technologie derrière).
La stratégie (faite par l’annonceur), sa mise en pratique lors de l’activation (par Implcit) avec exactement les mêmes critères, le reporting (la dimension études), et l’optimisation, tout se fait avec les mêmes informations.
Le pont entre les panels et les achats n’est pas seulement une méthode pour chercher de l’efficacité dans un monde sans data utilisateurs. C’est aussi l’assurance d’une cohérence entre toutes ces étapes, un partage harmonieux des informations avec l’annonceur, une amélioration de la connaissance du client, et des performances optimisées.