Étiquette : mesure

  • Les trois facettes de l’attention publicitaire

    Les trois facettes de l’attention publicitaire

    Depuis quelques années, le concept d’attention est au centre de toutes les attentions. Certains y voient même le Graal qui va sauver le marché de la fin des cookies ! N’exagérons pas, mais le fait est que c’est une notion importante.

    Importante, mais encore floue, car d’une part l’attention n’est pas définie officiellement (comme peut l’être la visibilité), et car d’autre part elle met en jeu des concepts cognitifs complexes. Pourra-t-elle donc être définie précisément un jour ?

    La méthode la plus précise et sérieuse pour mesurer l’attention, c’est l’eye tracking. Avec des dispositifs techniques on suit le déplacement du regard sur un écran (ou même hors de l’écran). Selon que le dispositif de mesure est des lunettes (chères) ou une webcam, on obtient des niveaux de précision différents.

    Dans les deux cas, la mesure met en jeu un échantillon de volontaires (panel) qui se prête au jeu. Heureusement, personne de sérieux à ma connaissance n’est venu pirater les webcam pour mesurer l’attention…

    Cette méthode est donc coûteuse, et peu d’environnements peuvent être mesurés précisément.

    Les outils de mesure de l’attention créent donc des méthodes hybrides, qui mélangent différentes sources de données.

    On dispose de trois sources de données dans le monde de la publicité digitale :

    • user-centric : du point de vue de l’individu
    • site-centric : du point de vue du site
    • banner-centric : du point de vue de la bannière publicitaire.

    L’eye-tracking est purement user-centric (je fais ce que je peux pour limiter les anglicismes, promis !). Mais un panel, dont l’activité est mesurée est aussi user-centric.

    Les données site-centric sont souvent récoltées par des robots, qui analysent le contenu des pages. De tels robots peuvent détecter les publicités, leur nombre, leurs formats, leurs positions et fournir des informations intéressantes.

    Les données banner-centric sont classiques dans la publicité : la visibilité est un pur exemple de mesure banner-centric. Un script embarqué dans la publicité mesure la visibilité dans son contexte de diffusion.

    Site-centric et banner-centric présentent l’énorme avantage d’une presque exhaustivité. On arrive maintenant à mesurer la visibilité de toutes les impressions publicitaires, et à analyser presque tous les sites.

    Des modèles peuvent être créés pour combiner ces différentes données et estimer une attention qu’il n’est pas possible de mesurer exhaustivement.

    Implcit aussi combine des données user, banner et site-centric.

    • user : le panel nous donne le temps passé sur chaque page. Et condition indispensable, le panel mesure si la cible cherchée a été atteinte.
    • site : nos robots visitent les pages pour analyser les publicités qui s’y trouvent
    • banner : nous collectons les données de visibilité et de complétion pour les vidéos

    Par exemple, prenons deux pages :

    • elles ont chacune 10 publicités (info site-centric fournies par les robots)
    • le panel (user-centric) nous informe que les internautes passent en moyenne 5 minutes sur la première et 5 secondes sur la deuxième.

    La qualité publicitaire des deux pages n’est pas la même. L’une exposera le visiteur à une publicité toutes les 30 secondes, l’autre à deux publicités par seconde !

    Lorsque la campagne tourne, la visibilité et la complétion fournissent le troisième élément (banner-centric) qui permet d’estimer l’attention.

    Je dis bien « estimer », car ce n’est pas à proprement parler une mesure, comme avec l’eye-tracking. Sans certitude d’attention, on est en capacité d’affirmer que la publicité a  » probablement été diffusée dans des conditions propices à l’attention ».

    Le tout est calculé avec les données mesurées sur les internautes qui font partie de la cible de la campagne. Cette information est aussi user-centric car fournie par le panel.

    L’autre dimension de l’attention, c’est son activation. Mesurer c’est une chose, contrôler c’en est une autre. Et dans ce cas, on ne peut parler que d’estimations.

    Il est possible de prévoir la visibilité et la complétion d’une publicité. En combinant ces deux prévisions banner-centric avec la qualité publicitaire (telle qu’on la mesure en site-centric et user-centric), on peut réunir les conditions qui, in fine, vont générer de l’attention.

    Chercher les inventaires publicitaires de meilleure qualité, où les publicités sont visibles et où les vidéos sont diffusées complètement, c’est se mettre dans les meilleures conditions d’attention. Et alors, quelque soit la méthode utilisée pour la mesurer, l’attention sera maximale.

  • 2023, année de la mesure sans data utilisateurs ?

    2023, année de la mesure sans data utilisateurs ?

    Lors des réunions de travail du Guide IAB de la nouvelle publicité digitale (qui sort le mois prochain), on a beaucoup parlé du ciblage en 2022. Mais au cours de l’année, le thème de la mesure est devenu de plus en plus important.

    Par rapport à l’activation, la mesure est souvent en effet le parent pauvre des média. Pour avoir entrepris des deux côtés (mesure avec Alenty et activation avec Implcit), je peux vous donner un point de vue d’entrepreneur : la mesure prend 1% à 3% du budget média, alors que l’activation prend 10% à 30%. Je vous laisse deviner ce qui intéresse le plus les investisseurs.

    La demande est là, et c’est donc du côté de l’offre de services qu’on s’est retrouvés en 2022 avec un déficit de mesure. Les données utilisateurs étant à la base de la plupart des mesures, il faut innover pour s’en passer.

    Alors que, théoriquement, comme l’existence précède l’essence, la mesure devrait précéder le ciblage.

    Normalement, toute activation doit en effet se fonder sur des données fiables. On doit être capable de mesurer ce que l’on veut atteindre, pour poser des objectifs clairs et une méthode pour les atteindre, et enfin mettre en œuvre cette méthode.

    Côté data, on a vu fleurir des systèmes de ciblage (Topics de Google, les Data Clean Room, etc.) qui respectent mieux la vie privée. Mais côté mesure, en 2022, Fledge de Google est encore loin de l’opérationnel, et les id unifiés n’offreront qu’une couverture limitée. En gros, pas grand monde ne sait ce qui sera mesurable après 2024.

    Mais au fait, que faut-il mesurer ?

    • le média (la diffusion des publicités) doit être mesurable
    • les performances (les impacts de la publicité) doivent pouvoir être mesurées
    • Le média ET les performances doivent pouvoir être reliés

    La mesure du média couvre plusieurs aspects :

    • où la publicité a-t-elle été diffusée ?
    • quelles étaient les caractéristiques (thème, qualité…) du média où la publicité a été diffusée ?
    • quelle population a été exposée à la publicité ?

    La mesure des performances peut aussi prendre des formes très différentes :

    • ma publicité a-t-elle été bien mémorisée ?
    • ma publicité a-t-elle généré des actions (clics, visites, achats…) de la part des personnes exposées ?

    Enfin, il faut être capables de relier ces deux mesures, avec une contrainte nouvelle : le respect de la vie privée.

    Avec les cookies tiers, c’était facile. On avait un identifiant à gauche, un à droite, s’ils étaient égaux, hop ! c’était plié.
    Bon, il restait quand même des questions d’attribution multiple (que faire si une conversion par exemple est précédée de plusieurs expositions publicitaires ?) qui n’ont été gérées qu’à l’avantage de Google (et d’une certaine simplicité) avec le last click. Mais c’était globalement simple, avant.

    Si on respecte la vie privée, cela devient vite plus compliqué.

    Citons deux approches peut-être pas si différentes que ça : le bruit et les statistiques.

    L’approche de Google vise à remplacer une donnée déterministe (des ids), en une donnée bruitée. C’est le principe de Fledge, où Chrome va envoyer des informations d’exposition et de clics volontairement fausses. Le but est que le bruit (un faible pourcentage) empêche quiconque de croiser les informations pour retrouver une personne donnée.

    Le marché verra-t-il cette donnée comme de la statistique, ce qu’elle est, ou comme de la data utilisateurs, ce qu’elle n’est plus vraiment ? J’ai peur que la faculté de simplification à outrance de nombreux acteurs conduise à penser que rien n’a changé, et que les données utilisateurs sont toujours là.

    Je pense à l’inverse qu’il faut intégrer dès maintenant que les données utilisateurs détaillées, individualisées et exhaustives ont disparu, et pour toujours.

    Et que de nouvelles mesures doivent être inventées avec ces contraintes. On va donc parler à nouveau de statistiques, de probabilités.

    Aujourd’hui, avec les data, on a déjà des informations partielles, incomplètes, parfois fausses, mais on les prend pour des certitudes absolues, et on prend des décisions elles-mêmes parfois fausses. Mais nombreux croient que ces data sont certaines, et que ces décisions sont fiables.

    Sans data, on va prendre des décisions sur des informations partielles, incomplètes. Mais au moins on le saura. Et on pourra créer des méthodes d’analyse adéquates.

    Par exemple, de vieilles méthodes comme la logique floue (« il a environ 34 ans ») ou la logique possibiliste (« il a 35 ans mais je n’en suis pas sûr ») gèrent ces types d’incertitudes.

    Réinventer la mesure en 2023 sur des bases statistiques, c’est l’un des défis que se lance Implcit.
    Nous avons déjà un reporting d’un type nouveau, qui permet de visualiser simplement comment une cible est atteinte. Nous continuons avec les performances, et un rapport qui montre comment une population peut être efficacement exposée. Et comme je le disais, la boucle ciblage-mesure-ciblage est ainsi mise en place.
    Et tout ça, bien-sûr, sans data utilisateurs.

  • Mesurer pour améliorer

    Mesurer pour améliorer

    Encore un article sur la répétition me direz-vous ! Je me répète à parler de répétition, jolie mise en abyme, Borges et Vélasquez auraient aimé !

    Velasquez se peint (à gauche) en train de peindre le roi et la reine, qui sont donc à la place du spectateur, et que l’on voit dans le miroir au fond. Une des plus belles mises en abyme de l’art…

    C’est le dernier de cette série, promis (avant la série suivante) !

    Un des problèmes qui ont laissé la répétition dans le caniveau de l’innovation publicitaire, c’est qu’aucun indicateur n’a été inventé pour la mesurer.

    Renseigne-toi, Laurent, me direz-vous, il y a la répétition moyenne et le capping ! Ouais, supers indicateurs, qui ne permettent aucune amélioration des performances d’une campagne.

    J’ai déjà écrit que la répétition moyenne ne veut rien dire.
    50% des contacts à une répétition, et 50% à 9 répétitions, ça fait une moyenne de 5 (ce qui peut être un objectif légitime). Mais pour moi, ça fait la moitié des contacts sous-exposés (perte d’efficacité), et l’autre moitié surexposée (budget non respecté).

    Pour moi, le marché n’a jamais inventé l‘indicateur qui mesurerait la qualité de la distribution des contacts.

    J’ai alors pensé à introduire une notion de distance par rapport à l’objectif de répétition. Qu’est-ce qu’une distance ? On raisonne souvent en distance dans un espace de dimension 2 (un plan, de coordonnées x et y). Dans ce cas, la distance d’un point (x, y) par rapport à l’origne (0, 0) se mesure avec une norme, et la norme en dimension 2, c’est

    \[d_2 = \sqrt{x^2 + y^2}\]

    Lorsqu’on cherche à optimiser sur une dimension, on utilise la norme 1, c’est-à-dire la norme d’espace de dimension 1. Cette norme est égale à ||

    \[d_1 = \sqrt{x^2} = |x| \]

    Donc on prend simplement la valeur absolue de la distance qui nous sépare de l’objectif.

    Exemple :

    • objectif = 4
    • valeur = 1 donc distance = 3 (valeur absolue de 4 – 1)
    • valeur = 8 donc distance = 4 (valeur absolue de 4 – 8)

    L’intérêt de cette méthode, outre sa simplicité extrême, c’est qu’elle va prendre en compte à la fois la sous-exposition (répétition inférieure à l’objectif) et la sur-exposition (répétition supérieure à l’objectif). Les deux problèmes sont de nature différente, mais c’est très pratique de les ramener à une seule mesure.

    Reprenons les exemples de distribution de contacts que j’ai présentés dans un précédent article sur le sujet :
    En abscisse, le nombre de publicités reçues par individu, en ordonnée, le nombre d’individus qui ont reçu une, deux, trois, … publicités de la campagne. En bleu, la répétition optimale (cible, ici 4 pour l’exemple).

    Calculons la distance moyenne de chaque distribution :

    d = 3,45
    d = 1,69
    d = 0,96

    Intuitivement, on vérifie que, plus la distribution se rapproche de l’optimum, 4, plus la distance est faible. Si tous les contacts étaient à 4, la distance serait de 0 !

    Avec cet indicateur, on peut mesurer la qualité de la répétition publicitaire. Et pas seulement avec une moyenne de répétition qui ne veut rien dire.

    Avec l’expérience Alenty, je ne connais que trop bien les difficultés à imposer un nouvel indicateur (nous avons inventé le taux de visibilité en 2007, je ne vous dis pas le temps qu’on a passé à éduquer le marché !).

    Je ne pense donc pas que cet indicateur va entrer dans le langage courant des acheteurs média. Mais à tout le moins, il pourra servir de base pour des algorithmes d’optimisation des performances publicitaires.

    Qu’en pensez-vous ?

  • Small is beautiful : à propos des cibles et des audiences

    Small is beautiful : à propos des cibles et des audiences

    Comment mesurer la qualité du ciblage d’une campagne publicitaire ?

    Il y a plusieurs façons de prendre le problème.

    Déjà, comment mesurer son ciblage ? C’est une question fondamentale, qui mérite au moins un article exclusif. Considérons aujourd’hui que l’on a une mesure acceptable du ciblage.

    La question qui se pose alors est : quels indicateurs utiliser ? 
    On dispose de peu d’informations :

    • Taille de la cible : TailleCible
    • Population totale : PopulationTotale
    • Nombre d’individus de la cible qui ont été exposés à la publicité : IndividusCibleExposés (sur un site)
    • Nombre d’individus exposés à la publicité : IndividusExposés (sur un site)
    • Nombre d’impressions publicitaires qui ont touché  la cible : ImpressionsCiblées (sur un site)
    • Nombre d’impressions publicitaires achetées : ImpressionsAchetées
    • Nombre total d’impressions publicitaires du site : ImpressionsTotalesSite

    Le dernier est difficile à obtenir pour un acheteur (seul le site peut le connaître, et encore)…

    On peut combiner ces indicateurs de base pour obtenir des indicateurs de performance simples :

    \[ tauxExclusivité = {CibleTouchée \over ImpressionsAchetées} \] \[ couvertureSurCible = { IndividusCibleExposés \over TailleCible } \] \[ tauxExposésSurCible = {IndividusCibleExposés \over IndividusExposés} \] \[ poidsDeLaCible = {TailleCible \over PopulationTotale} \]
    • tauxExclusivité : pourcentage des publicités achetées qui ont touché leur cible. Ce taux exprime l’exclusivité du ciblage (peu de perte).
    • couvertureSurCible : pourcentage de la cible touchées par la publicité.
    • tauxExposésSurCible : pourcentage des contacts publicitaires qui sont dans la cible.
    • poidsDeLaCible : pourcentage de la population totale qui est dans la cible.

    La grande question qui se pose maintenant, c’est comment analyser ces chiffres ? En effet, si le tauxExposésSurCible est de 10%, est-ce bien ou est-ce nul ?

    La réponse est, comme toujours, « ça dépend ». Ca dépend surtout de la taille de la cible.  Si vous ciblez les femmes qui représentent environ 50% de la population, 10% c’est complètement nul.  En revanche, si vous ciblez les fans de J L Borges qui bossent dans le programmatique, (qui d’autre à part moi ? 70 sur 70 millions de français ? Soit 1 sur 1 million ?) atteindre 10% constitue un véritable exploit !

    Alors, on a inventé les indices composites, ou index.
    Par exemple, si on compare le tauxExposésSurCible (IndividusCibleExposés / VisiteursExposés) avec poidsDeLaCible (TailleCible / PopulationTotale), on répond à cette question de la performance du ciblage.

    Pour rendre les indices lisibles, et les distinguer des taux, on les ramène à 100. En dessous de 100, on fait moins bien que l’aléatoire, au dessus, on fait mieux que l’aléatoire.

    \[ affinite (individus) = {tauxExposésSurCible \over poidsDeLaCible } \] \[ affinite (individus) = {IndividusCibleExposés / IndividusExposés \over TailleCible / PopulationTotale } \]

    Donc pour les femmes dans mon exemple :    

    \[ affinité (individus) = 100 * { 10 \over 50 } \] \[ affinité (individus) = 20 \]

    Et pour les amateurs de Borges et de programmatique :  

    \[ affinite (individus) = 100 * { 10 \over 0,0001 } \] \[ affinite (individus) = 1 000 000 \]

    On mesure donc que 10% sur les adulateurs de Borges est un tour de force !

    On peut aussi faire un  Indice d’affinité composite (impressions et individus)     

    \[ affinite (composite) = 100 * { ImpressionsCiblées / ImpressionsAchetées \over TailleCible / PopulationTotale } \]

    C’est l’indice utilisé par DAR de Nielsen. Il présente l’avantage de combiner des mesures publicitaires (ImpressionsCiblées et ImpressionsAchetées) et une référence extérieure (TailleCible et PopulationTotale).

    Comment varient de tels indices ?

    Il faut avoir en tête que les indicateurs de base sont liés entre eux :    

    IndividusCibleExposés < IndividusExposés (il y a moins de personnes de la cibles touchées sur le site que de personnes exposées sur le site)
    IndividusCibleExposés < TailleCible (il y a moins de personnes de la cible touchées sur le site que de personnes dans la cible)

    \[ {IndividusCibleExposés \over IndividusExposés } < 1\] et \[ {IndividusCibleExposés \over TailleCible } < 1\]

    Après quelques développements que je vous épargnerai ici, on arrive à une formule qui relie le maximum d’un indice à la taille du site (sa couverture) et au poids de la cible dans la population totale.

    \[ Affinité < 100 * {PopulationTotale * min ( TailleCible , IndividusExposés) \over TailleCible * IndividusExposés} \]

    Autrement dit :

    • Plus une cible est petite, plus on peut obtenir un indice d’affinité élevé
    • Plus un site est petit, plus on peut obtenir un indice d’affinité élevé

    Le graphique ci-dessous présente les différentes valeurs maximales que peut prendre un indice d’affinité en fonction de la taille du site et de la taille de la cible.

    Comment ceci se traduit-il opérationnellement ?
    Si on choisit des cibles trop larges, on ne pourra pas bénéficier d’affinités importantes.  L’affinité maximale pour toucher la cible femmes est de 200.
    Symétriquement, si on choisit de sites à forte audience, on ne pourra pas obtenir d’affinités élevées.  L’affinité maximale d’un site qui fait 50% d’audience est de 200.

    Les conclusions de cette petite démonstration sont les suivantes :

    • Les indices d’affinité sont une bonne manière d’estimer la qualité d’un ciblage
    • Il faut connaître leur variabilité pour analyser les résultats obtenus
    • Plus une cible sera petite plus il sera possible d’obtenir des affinités importantes
    • Plus une audience sera petite, plus il sera possible d’obtenir des affinités importantes
    • La combinaison des deux (petite cible sur petit site extrêmement affinitaire) donne les indices les plus élevés

    Les petites cibles peuvent être socio-démographiques ou comportementales. Dans le monde post-data, on n’ira jamais au ciblage one-to-one

    Une remarque : j’ai fait la démonstration avec une notion de site.  J’aurais aimé pouvoir dire que le ciblage affinitaire favorise les petits sites. C’est vrai si on cible au niveau domaine (ce qui est souvent le cas). Mais si on dispose d’une granularité plus fine, en travaillant par sous-domaine, ou même à l’URL, on peut aussi s’approcher des maxima.

    En revanche, il est tout à fait vrai de dire que ça ne sert à rien d’acheter un gros carrefour d’audience pour toucher une cible de taille inférieure à l’audience dudit site…

    Alors, Small is beautiful ?  C’est le titre d’un livre de l’économiste d’origine Allemande E. F. Schumacher. Il y défend que l’économie moderne n’est pas durable, que les ressources de la terre sont limitées et que la pollution est un problème planétaire.
    Rien de révolutionnaire, donc, en 2021. Sauf qu’il a écrit ça en 1973 ! Il prônait une économie du petit, plus tard appelée économie Bouddhiste…

    Alors, en 2021, pour voir précis, voyons petit ?