2023, année de la mesure sans data utilisateurs ?

Lors des réunions de travail du Guide IAB de la nouvelle publicité digitale (qui sort le mois prochain), on a beaucoup parlé du ciblage en 2022. Mais au cours de l’année, le thème de la mesure est devenu de plus en plus important.

Par rapport à l’activation, la mesure est souvent en effet le parent pauvre des média. Pour avoir entrepris des deux côtés (mesure avec Alenty et activation avec Implcit), je peux vous donner un point de vue d’entrepreneur : la mesure prend 1% à 3% du budget média, alors que l’activation prend 10% à 30%. Je vous laisse deviner ce qui intéresse le plus les investisseurs.

La demande est là, et c’est donc du côté de l’offre de services qu’on s’est retrouvés en 2022 avec un déficit de mesure. Les données utilisateurs étant à la base de la plupart des mesures, il faut innover pour s’en passer.

Alors que, théoriquement, comme l’existence précède l’essence, la mesure devrait précéder le ciblage.

Normalement, toute activation doit en effet se fonder sur des données fiables. On doit être capable de mesurer ce que l’on veut atteindre, pour poser des objectifs clairs et une méthode pour les atteindre, et enfin mettre en œuvre cette méthode.

Côté data, on a vu fleurir des systèmes de ciblage (Topics de Google, les Data Clean Room, etc.) qui respectent mieux la vie privée. Mais côté mesure, en 2022, Fledge de Google est encore loin de l’opérationnel, et les id unifiés n’offreront qu’une couverture limitée. En gros, pas grand monde ne sait ce qui sera mesurable après 2024.

Mais au fait, que faut-il mesurer ?

  • le média (la diffusion des publicités) doit être mesurable
  • les performances (les impacts de la publicité) doivent pouvoir être mesurées
  • Le média ET les performances doivent pouvoir être reliés

La mesure du média couvre plusieurs aspects :

  • où la publicité a-t-elle été diffusée ?
  • quelles étaient les caractéristiques (thème, qualité…) du média où la publicité a été diffusée ?
  • quelle population a été exposée à la publicité ?

La mesure des performances peut aussi prendre des formes très différentes :

  • ma publicité a-t-elle été bien mémorisée ?
  • ma publicité a-t-elle généré des actions (clics, visites, achats…) de la part des personnes exposées ?

Enfin, il faut être capables de relier ces deux mesures, avec une contrainte nouvelle : le respect de la vie privée.

Avec les cookies tiers, c’était facile. On avait un identifiant à gauche, un à droite, s’ils étaient égaux, hop ! c’était plié.
Bon, il restait quand même des questions d’attribution multiple (que faire si une conversion par exemple est précédée de plusieurs expositions publicitaires ?) qui n’ont été gérées qu’à l’avantage de Google (et d’une certaine simplicité) avec le last click. Mais c’était globalement simple, avant.

Si on respecte la vie privée, cela devient vite plus compliqué.

Citons deux approches peut-être pas si différentes que ça : le bruit et les statistiques.

L’approche de Google vise à remplacer une donnée déterministe (des ids), en une donnée bruitée. C’est le principe de Fledge, où Chrome va envoyer des informations d’exposition et de clics volontairement fausses. Le but est que le bruit (un faible pourcentage) empêche quiconque de croiser les informations pour retrouver une personne donnée.

Le marché verra-t-il cette donnée comme de la statistique, ce qu’elle est, ou comme de la data utilisateurs, ce qu’elle n’est plus vraiment ? J’ai peur que la faculté de simplification à outrance de nombreux acteurs conduise à penser que rien n’a changé, et que les données utilisateurs sont toujours là.

Je pense à l’inverse qu’il faut intégrer dès maintenant que les données utilisateurs détaillées, individualisées et exhaustives ont disparu, et pour toujours.

Et que de nouvelles mesures doivent être inventées avec ces contraintes. On va donc parler à nouveau de statistiques, de probabilités.

Aujourd’hui, avec les data, on a déjà des informations partielles, incomplètes, parfois fausses, mais on les prend pour des certitudes absolues, et on prend des décisions elles-mêmes parfois fausses. Mais nombreux croient que ces data sont certaines, et que ces décisions sont fiables.

Sans data, on va prendre des décisions sur des informations partielles, incomplètes. Mais au moins on le saura. Et on pourra créer des méthodes d’analyse adéquates.

Par exemple, de vieilles méthodes comme la logique floue (“il a environ 34 ans”) ou la logique possibiliste (“il a 35 ans mais je n’en suis pas sûr”) gèrent ces types d’incertitudes.

Réinventer la mesure en 2023 sur des bases statistiques, c’est l’un des défis que se lance Implcit.
Nous avons déjà un reporting d’un type nouveau, qui permet de visualiser simplement comment une cible est atteinte. Nous continuons avec les performances, et un rapport qui montre comment une population peut être efficacement exposée. Et comme je le disais, la boucle ciblage-mesure-ciblage est ainsi mise en place.
Et tout ça, bien-sûr, sans data utilisateurs.

Laisser un commentaire