Étiquette : attribution

  • Identifiants et attribution : un marteau-piqueur pour casser une noix !

    Identifiants et attribution : un marteau-piqueur pour casser une noix !

    Franquin, imbattable pour créer des images cultes et transgénérationnelles ! Quand ils croquent un truc dans un plat, mes enfants disent « jamais vu une noix aussi dure ! »

    Le marché publicitaire digital repose sur des data, c’est bien connu. Il s’habitue petit à petit, contraint et forcé, à son corps défendant et à l’insu de son plein gré, bref, lentement, à des solutions alternatives pour le ciblage.

    Mais j’entends souvent dire : pour la mesure, on aura toujours besoin des data…

    C’est vrai, la mesure des performances publicitaires reste le parent pauvre des alternatives aux data. Mais faut-il se contenter de chercher à adapter les méthodes anciennes à un paradigme qui a changé du tout au tout ?

    Intuitivement, disposer d’un identifiant pour associer une conversion à une exposition publicitaire, c’est simple et robuste. Sauf que ce n’est pas simple (combien de temps les traders passent-ils à mettre en place des outils de mesure ?). Et ce n’est plus robuste (combien de campagnes se passent sans problème de mesure ?).

    Le pire, c’est l’utilisation qui est faite de ces données. Utilise-t-on les données individuelles pour tirer des enseignements individuels ? Pour prendre des décisions individuelles ? Pour agir individuellement ?

    Vous me direz, on peut exclure des individus qui ont acheté un produit pour une campagne sur ce produit. Qui le fait ? J’avais posé cette question à Criteo il y a plus de 10 ans. Réponse : c’est compliqué, ça ne fait rien économiser, et ça peut rapporter un peu en cross-sale. Rien économiser, en effet : avec une estimation généreuse d’une conversion pour 1000 expositions, on économise 0,1% de son budget média.

    Non, les analyses publicitaires ne sont pas individuelles. Elles sont agrégées.

    Même une société comme Scibids, dont le succès est fondé sur la finesse de ses analyses, travaille sur des corrélations statistiques.

    Pour le reste, les analyses restent souvent assez basiques : domaine de l’exposition, navigateur, device, jour, heure… Où est la donnée individuelle là-dedans ? Nulle part. Elle ne sert qu’à nourrir des analyses agrégées.

    Alors pourquoi utilise-t-on un marteau-piqueur pour casser une noix ?

    Le problème du marteau-piqueur, c’est qu’il est lourd et qu’il fait du bruit.

    La data est lourde, on l’a vu. Et bientôt, reproduire ce qu’on faisait avec des cookies sur la base d’identifiants, qu’il faudra combiner pour arriver à des volumétries suffisantes, ce sera encore pire.

    Et si ces identifiants sont eux-mêmes statistiques, ça devient drôle : on utilise des statistiques pour obtenir de l’information pseudo-individuelle, qui sera utilisée pour faire des statistiques !

    Et la métaphore du bruit du marteau-piqueur, c’est les dommages collatéraux des données. Comme le ciblage individuel, la mesure individuelle a mauvaise presse chez les internautes. Tous les abus commis par les adtech ont créé une légitime paranoïa publicitaire. Se savoir « espionné » sur le site d’un annonceur peut générer chez les visiteurs une défiance vis-à-vis de la marque.

    Attention, je ne dis pas que les bases CRM sont illégitimes et inutiles ! Une marque a le droit (et même l’obligation) de connaître ses clients et si possible ses prospects. Mais sur une base claire de consentement et de volontariat.

    Pour le reste, le marché devrait chercher des solutions d’attribution agrégées. Qui ne passent pas par des identifiants dont finalement, on n’a pas vraiment besoin.

    Mon petit doigt me dit que certains y réfléchissent déjà ! 🤔

  • Attention aux biais d’attribution !

    Attention aux biais d’attribution !

    J’ai déjà expliqué que le marché de la publicité digitale vit une forte baisse de la densité informationnelle. En résumé, il y a de moins en moins de données disponibles, et il faut apprendre à raisonner sur des informations incomplètes.

    Incomplètes, c’est une chose. Biaisées, c’en est une autre.

    Le premier biais que l’on peut constater c’est que les taux de conversion peuvent être faux.
    Le taux de conversion est habituellement calculé en divisant le nombre de conversions par le nombre d’expositions publicitaires.
    Les conversions ne peuvent généralement être comptabilisées qu’à l’aide de data utilisateurs. Au minimum, un identifiant, pour lequel un consentement aura été donné.
    Inversement, les expositions publicitaires n’ont pas besoin d’identifiant.
    On peut donc se retrouver dans la situation suivante : exposer des individus qui n’ont pas d’identifiant ou de consentement, et donc pour lesquels on ne peut pas compter les conversions.

    Aujourd’hui, au moins la moitié des contacts publicitaires n’a pas de data associées. Donc la moitié des individus exposés à une publicité peut avoir converti sans qu’on le sache. Le taux de conversion mesuré sera donc la moitié du taux de conversion réel.

    Même si on ne voit que la moitié de la lune, on sait bien qu’elle est ronde, non ?

    Comparons maintenant deux systèmes d’achats publicitaires aussi efficaces l’un que l’autre (même taux de conversions réel). Le premier n’expose à des publicités que les individus qui ont des data utilisateurs. Le second expose tout le monde, mais seuls la moitié des conversions de ces derniers sont mesurées.
    Disons que les deux systèmes génèrent un million de contacts publicitaires.
    Avec un même taux réel de conversion (0,1% par exemple), on arrive à mesurer 1000 conversions pour le premier système, et seulement 500 pour le second (la moitié n’est pas mesurée et je fais l’hypothèse que son comportement est identique).
    Ce second système verra un taux de conversion mesuré deux fois plus petit (0,05%) que le premier (0,1%). Je le rappelle, les deux systèmes sont équivalents. Mais l’un d’eux paraît à tort moins efficace que l’autre. C’est ce que j’appelle le biais de mesurabilité.

    Ce biais a permis à Google de conquérir sa part de marché : les outils intégrés ont montré l’apport de Google à un plus grand nombre de conversions que celles de ses concurrents. Etait-ce justifié ? Là n’est pas la question ici : ce qui a compté, c’est la valeur perçue.

    Comment corriger ce biais de mesurabilité ?

    Tout simplement en calculant un taux de conversion uniquement sur ce qui est mesurable. Autrement dit, on prend en compte toutes les conversions, mais on ne compte que les contacts publicitaires mesurables (avec des data utilisateurs).

    Dans notre exemple des deux systèmes aussi efficaces l’un que l’autre, si on ne prend en compte, pour le calcul du taux de conversion, que les contacts publicitaires mesurables. Sur un million, on en trouve 500 000. Rapportés aux nombre de conversions mesurées (500), on retrouve bien un taux de conversion de 0,1%, identique à l’autre système.

    Pourquoi est-il intéressant de ne pas limiter ses investissements publicitaires eux seuls contacts avec des data ?

    La principale raison est la couverture. En limitant la diffusion d’une campagne de publicités, on se coupe d’une partie de la population aussi intéressante que l’autre. On passe donc à côté d’une opportunité de gagner de nouveaux clients. D’autre part, on prend le risque de saturer l’autre moitié, en lui consacrant un budget double de celui prévu.

    Mes exemples se sont fondés sur 50% de contacts publicitaires associés à des data. Selon certaines sources, on serait déjà descendus à 30% seulement. Avec la disparition programmée des cookies tiers cette année, seuls 5% à 20% des contacts seront associés à des data.

    Continuerez-vous à surexposer 10% des individus et à délaisser les 90% restants à cause d’un simple biais de mesurabilité ?

    J’espère que vous ne commettrez pas cette erreur.

    D’autant que je n’ai pas encore parlé du deuxième biais : les contacts mesurables et non mesurables ont-ils la même structure ? Ont-ils la même qualité ? La même valeur ?

    Aujourd’hui, les utilisateurs sur Safari ne sont pas mesurables. Or, Safari ne tourne que sur les iPhones, et les Mac, qui sont plus chers. Leurs usagers sont plus riches en moyenne.
    Selon la campagne (produit discount ou de luxe), ce biais peut ne pas être gênant ou au contraire réduire l’efficacité de la campagne.
    En exposant tout le monde, mais en calculant le taux de conversion sur ce qui est mesurable, on garde les chances de toucher les bonnes personnes.

    Allons plus loin dans l’analyse des biais.
    Demain, les data seront liées à un identifiant souvent fondé sur une adresse email. Certains sites parviendront à obtenir un grand nombre d’emails, d’autres très peu.
    Les seconds seront-ils forcément moins pertinents que les premiers ?

    Absolument pas ! Prenons deux sites avec des taux de collecte d’emails très différents :
    – site 1 : 50% des visiteurs ont donné leur email et leur consentement
    – site 2 : 10% des visiteurs ont donné leur email et leur consentement

    Supposons que les visiteurs du site 2 soient deux fois plus intéressés par l’offre de l’annonceur que ceux du site 1. A titre d’exemple, disons que le taux réel de conversion est de 0,1% pour le site 1 et 0,2% pour le site 2.
    Le taux de conversion mesuré en comptant toutes les expositions publicitaires (mesurables et non mesurables) est donc :
    – site 1 : 50% * 0,1% = 0,05%
    – site 2 : 10% * 0,2% = 0,02%

    On croira à tort que le site 2 est moins performant, et on mettra plus de budget sur le premier.

    Avec un taux qui corrige le biais de mesure, on obtient les taux mesurés suivants (on ne prend que les expositions publicitaires mesurables au dénominateur) :
    – site 1 : 50% * 0,1% / 50% = 0,1%
    – site 2 : 10% * 0,2% / 10% = 0,2%

    On mesure ainsi l’intérêt réel et la réelle contribution des sites aux conversions. Et on privilégiera donc le site 2, objectivement plus efficace.

    Les plateformes d’achats publicitaires doivent impérativement corriger le biais de mesurabilité et fournir des chiffres d’attribution de conversions qui reflètent la réalité.