L’économie est la science des ressources rares. Avec la disparition programmée des cookies tiers sur Chrome, les données vont se raréfier, et paradoxalement prendre plus de valeur. Mais quelle est la valeur des données restantes ? Et quelle économie va se mettre en place ?
Prenons l’exemple de la mesure des sites (analytics pour les anglophiles). La mesure du comportement des visiteurs d’un site repose sur des cookies, pour suivre le passage d’une page à une autre, la source du trafic, la récurrence des visites, etc.
Lorsque vous ne vous appelez pas Google, vous ne disposez pas de ces capacités en interne. Donc vous faites appel, à … Google.
Donc les cookies que vous utilisez sont des cookies tiers, dont la fatale destinée est connue.
Certains sites vont néanmoins disposer de quelques cookies « premiers ». Par opposition aux cookies tiers, ils sont déposés sur le même domaine que le site, et donc ne seront pas éradiqués. D’autres mettront en place des incitations à s’identifier (avec un email ou un téléphone).
La résultante sera qu’une partie seulement des visiteurs pourra être suivie.
Une partie seulement. 1% ? 10% 50% dans le meilleur des cas ?
« Une chose rare est chère », comme l’énonce la prémisse majeure du syllogisme du cheval. Donc une information rare est chère. A condition de pouvoir l’utiliser.
Allez ! Je me risque à me lancer dans une explication simpliste. Si 100 cookies valent X, 70 cookies valent 0.7 X. Si simpliste que ça mon explication ? Peut-être pas car c’est exactement le raisonnement que font les sites en ce moment : ils estiment la disparition de valeur de leurs data à la part des cookies qui ne sont plus enregistrés. Entre Safari et Firefox, c’est déjà 30% de la valeur qui s’est volatilisée. Ajoutez ceux qui refusent de consentir à partager leurs données et nous avez une idée du désarroi des média.
Lorsqu’on perd 30% et qu’on n’a pas d’alternative évidente, on fait le dos rond. Mais lorsque ces 30% deviendront 90%, qu’il ne restera peut-être que 10% des volumes de données, il faudra absolument évoluer.
Or ces données peuvent aussi être revalorisées. Il existe des méthodes pour étendre un comportement connu sur les visiteurs inconnus. Et ainsi, les quelques données disponibles vaudront individuellement bien plus que ce qu’elles valaient du temps de leur prodigalité.
Ces méthodes sont statistiques (jumeaux, projections), ou fondées sur de l’apprentissage automatique (machine learning). Elles sont utilisées depuis des dizaines d’années dans tous les autres secteurs économiques. Seul le monde du digital a joui de données directement et facilement exploitables. On en est devenus fainéants. On se satisfaisait d’égalités (cookie1 = cookie2), il faut maintenant apprendre à faire des probabilités et du machine learning.
Si vous le souhaitez, vous pouvez creuser l’exemple que j’ai pris sur l’analyse de trafic de site en lisant cet article sur l’avenir de Google Analytics.
Cette économie de la rareté des données se développe donc maintenant en digital. Elle ne se limitera pas à projeter un échantillon de cookies sur la population totale. Les échantillons, quels qu’ils soient, reprennent du poil de la bête. Mais qu’est-ce qu’un échantillon ?

(Vous remarquerez que je n’ai pas illustré cet article avec une prise d’échantillon dans le nez pour un test de Covid ! 🙂)
- Un ensemble (non exhaustif) de visiteurs ou de contacts publicitaires que l’on peut mesurer
- Un panel d’audience dont le profil est connu et qui fournissent des informations pertinentes sur le contexte
- Une partie de ses contacts qui ont donné leur consentement à l’utilisation de leurs toutes données et que l’on peut appliquer à ceux dont on ne dispose que de données partielles
- Des sondages desquels on peut tirer des enseignements, etc.
L’économie de la rareté des data devient l’économie des échantillons.