Étiquette : ciblage

  • Le ciblage par panels améliore l’acceptabilité de la publicité

    Le ciblage par panels améliore l’acceptabilité de la publicité

    Selon plusieurs études (comme celle-ci qui date un peu ou avec simplement une pincée de bon sens), les internautes acceptent la publicité à une condition : ne pas se sentir traqués. Parfois même ils l’apprécient.

    En fait, là où ça devient intéressant c’est que l’acceptabilité et le rejet semblent conditionnés par la même chose : le ciblage.

    On accepte, voire on aime, les publicités qui nous intéressent. Certains sont aussi favorables à des publicités pour leurs marques préférées. Le ciblage est donc un attribut positif de la publicité.

    Alors quel ciblage est massivement rejeté ?

    A mon avis, c’est le ciblage qui se remarque.

    Tant qu’on ne remarque pas le ciblage, on ne peut pas se sentir ciblé. Cela semble une évidence mais c’est un peu plus subtil que ça.

    Je pense que tout le monde sait plus ou moins consciemment qu’on est ciblés. Ce n’est pas qu’on ne remarque pas certains ciblages, mais on préfère les ignorer.
    D’une part parce qu’une publicité ciblée intelligemment est « globalement inoffensive ». Je ne suis pas choqué si je vois de la publicité pour des rasoirs sur un site de rugby. Il n’y a rien de méchant, tant que la pub n’affiche pas « Laurent, tu n’as pas changé tes lames depuis trois semaines »…

    Je ne pouvais pas louper cette référence 🙂

    D’autre part, quand bien même on se douterait qu’une publicité est ciblée, on préfèrerait l’ignorer car elle correspond à un de ses centres d’intérêts.
    Enfin, si on remarque que la publicité est ciblée, on se dit parfois que cela vaut mieux, car sinon, on aurait des pubs inintéressantes, voire dérangeantes.

    Comment se fait-il donc qu’un même critère (le ciblage) crée à la fois de l’agrément et du rejet ?

    Tout est dans la granularité du ciblage.
    Le ciblage que l’on accepte, voire que l’on veut, est un ciblage macro. Un ciblage dans lequel des milliers, voire des millions d’autres personnes peuvent se reconnaître.
    Le ciblage que l’on rejette, à l’inverse, est un micro-ciblage. Un ciblage qui ne concerne qu’une personne, soi-même.

    Tout est donc une question de quantité. Par quantité j’entends la taille de la cible.

    Une cible de une personne (moi) se repère facilement. Elle provoque une gêne, un énervement (surtout lorsqu’elle est répétée des dizaines de fois), et parfois un rejet.

    Une cible de plusieurs millions sera peut-être moins pertinente qu’une cible de taille « un ». Mais elle sera mieux acceptée, et l’acceptation est un critère de pertinence en soi aussi.

    Ou placer le curseur entre un et un million ? Il dépend certainement du secteur d’activité (la santé est beaucoup plus sensible que l’alimentation par exemple). Mais quel que soit le niveau où on place le curseur, le passage du micro-ciblage à un ciblage modéré est clé si on veut éviter de renforcer le rejet de la publicité.

    Les data utilisateurs se sont tiré une balle dans le pied. Ils ont créé les conditions de leur rejet et de leur disparition partielle.

    Avec des technologies de ciblage contextuel, sans data, statistiques, on évite le risque de rejet de la publicité. Est-ce à dire que sans data utilisateurs, le RGPD n’existerait pas, que les cookies tiers seraient toujours supportés par les navigateurs ? Cette question n’a pas vraiment de sens, le mal est fait.

    Mais ce qui est sûr, c’est qu’à l’avenir, si on veut éviter d’alimenter le rejet de la publicité (avec les conséquences que l’on sait sur la presse notamment), des solutions respectueuses de la vie privé doivent être privilégiées.

  • Le préfunnel publicitaire

    Le préfunnel publicitaire

    Quand on parle de funnel publicitaire, on se limite habituellement à une approche macro : exposition publicitaire, interaction, visite, mise en panier, paiement, validation.

    Mon néologisme prefunnel entre dans le détail de l’exposition, en suivant la même logique de l’entonnoir de conversion. En effet, funnel mélange la notion d’entonnoir (le nombre de contacts diminue à chaque étape), et de tunnel (on est souvent dans le noir et on ne voit que le résultat final, au bout du tunnel).

    Donc, de même, l’exposition publicitaire peut s’analyser comme un entonnoir dont l’objectif est de mener à une interaction, une visite, etc.

    Partons donc d’un million d’impressions publicitaires.

    Supposons que l’acheteur média parvienne à obtenir 80% d’impressions sur cible (un excellent résultat, à mon avis il utilise les services d’Implcit 😉). On a donc 800 000 impressions sur la cible.

    Parmi ces impressions, 70% sont visibles (encore un excellent résultat, il doit vraiment utiliser Implcit). On obtient donc 560 000 impressions visibles sur cible.

    Après la visibilité, l’attention. Une publicité visible dans un environnement encombré n’attirera pas l’attention. Sans attention une publicité passe inaperçue. L’attention n’est pas un attribut mesurable facilement, encore moins une notion quantifiable comme la visibilité (vue / pas vue). Mais on imagine bien qu’il y a une nouvelle déperdition ici.

    Pour la simplification de l’exercice supposons qu’une publicité sur deux attire l’attention. Restent 280 000 impressions.

    Exposer sa cible à une publicité, c’est bien. L’exposer à plusieurs publicité c’est mieux.
    En effet, il faut une certaine répétition pour qu’un message publicitaire soit mémorisé. Cette répétition optimale dépend de l’attention que l’on porte à la publicité, et donc de son environnement. On définit alors habituellement des seuils de répétition utile.
    Supposons qu’on considère que l’individu doit être exposé entre 3 et 5 fois. En dessous, il a peu de chance d’avoir retenu le message, au dessus, il ne le mémorise pas tellement mieux qu’à la 5ème fois, ce sont donc des répétitions coûteuses voire inutiles.

    Sur l’ensemble des individus exposés à des publicités visibles, qui attirent potentiellement leur attention, la distribution des contacts permet de quantifier l’audience utile (ceux qui sont exposés entre 3 et 5 fois).

    Supposons que la moitié des contacts sont exposés entre 3 et 5 fois, et que les impressions sur ces contacts représentent la moitié du total. Restent donc 140 000 impressions

    Mises bout à bout, ces différentes conditions réduisent drastiquement les volumes efficaces. Seules restent, en théorie, les impressions sur cible, visibles, qui attirent l’attention, et contribuent à une répétition utile.

    Seules 140 000 impressions sur un total d’un million remplissent toutes les conditions du prefunnel publicitaire. 14% donc.

    Chabert n’est pas très attentif…
    Crédit https://www.kaakook.fr/citation-12931

    Donc avant même l’entonnoir de conversion, il existe un entonnoir d’exposition, tout aussi important.

    Que de pertes ma bonne dame me direz-vous ! En effet, au final, une conversion pour 10 000 publicités (en appliquant le deuxième funnel de conversion, ordre de grandeur non contractuel) c’est très peu. Mais cela reste suffisant pour justifier que la publicité, lorsqu’on la maîtrise, ça marche !

    Cible, visibilité, attention (bientôt, suivez-nous !), répétition. Ce sont les indicateurs qu’Implcit vous permet de contrôler. Pour plus d’efficacité publicitaire.

    PS : si vous n’avez pas vu Le Péril Jeune de Cédric Klapish, louez-le sur votre plateforme de streaming favorite. Ensuite, vous ferez peut-être comme moi : j’ai fait apprendre à mes garçons à répondre « Euh, 14% m’sieur » s’ils sont surpris à papoter en classe. On ne sait jamais, ils peuvent tomber sur un prof qui adore ce film ! 😉

  • On n’est pas monomaniaques !

    On n’est pas monomaniaques !

    C’est un fait établi, l’homo occidentalus passe sa vie sur Internet. Autrement dit, nos centres d’intérêts se retrouvent immédiatement sur notre consommation Internet.

    On ne s’en rend souvent même plus compte. On dégaine nos smartphones à la moindre question. On oublie même souvent qu’on a fait telle ou telle recherche.
    Et après on croit que nos téléphones nous espionnent !

    En 1998, j’ai rejoint une start-up (le mot même n’était pas très connu), NetValue. Nous y avons développé un logiciel (meter) que des volontaires (panélistes) installaient sur leur ordinateur. J’ai adoré ce job : avec un panel, on est au courant de toutes les nouvelles tendances, on connaît tous les centres d’intérêts, on découvre d’improbables corrélations.

    Les données étaient évidemment anonymes, donc on pouvait sans voyeurisme suivre un individu tout au long de sa consommation digitale. Les changements de thématiques étaient aussi soudains qu’intrigants, la variété des centres d’intérêts (nous étions en 2000 !) préfigurait notre addiction actuelle.

    NetValue a été rachetée en 2002 par Nielsen / NetRatings, et les panels de Médiamétrie / NetRatings en sont aujourd’hui les héritiers.

    Entre temps, Internet est devenu mainstream. 54 millions de personnes se connectent mensuellement et le temps passé a explosé. Avec notre accès unique aux données désagrégées du panel Internet de Médiamétrie, je peux recommencer mes investigations. Et je retrouve la même passion aujourd’hui, 24 ans plus tard !

    Là où certains contenus manquaient en 2000, tout est aujourd’hui disponible sur Internet. Le constat que je faisais chez NetValue trouve maintenant sa plus complète réalisation : tout ce qui intéresse un individu est tôt ou tard consulté. Certains chercheurs en sociologie ne s’y trompent pas, les panels internet fournissent de magnifiques laboratoires de la société.

    Il devient souvent plus efficace de simplement regarder ce que font les gens sur Internet plutôt que de leur demander. Trouver les individus intéressés par telle ou telle problématique est donc pour nous un jeu d’enfants.

    « voiture électrique » ? « allaitement » ? « réchauffement climatique » ? En une seconde, on isole une population spécifique. Et on sait alors tout d’elle : sa taille, son profil socio-démographique, les sites qu’elle visite. Tout.

    Mais ce qui nous intéresse chez Implcit c’est son exposition aux publicités.

    Nos algorithmes trouvent les pages où cette population est la plus sur-représentée. Évidemment, les femmes (ou les hommes) qui se renseignent sur l’allaitement se retrouvent souvent sur des sites d’allaitement. Mais aussi, sans que l’on ait besoin de faire la moindre analyse de proximité sémantique, sur des sites de bébés, de couches, de santé post-partum, etc. Le lien comportemental permet de relier des concepts entre eux. Simplement parce que ce sont les mêmes personnes qui leur marquent de l’intérêt.

    Il n’y a qu’à voir la pertinence des propositions que fait notre interface quand on tape les premières lettres d’un mot : les premiers thèmes proposés sont vraiment les plus pertinents. Le secret, c’est l’humain : le panel est composé d’humains, qui raisonnent peu ou prou comme vous et moi.

    Mais ce caractère humain présente un autre avantage de taille.

    Les femmes qui allaitent, les amateurs de trek, les intentionnistes voiture, etc. ne font pas qu’allaiter, marcher ou conduire. Ils et elles sont aussi des amateurs de mode, d’information locale, de foot.

    Trek en Nouvelle-Zélande

    Personne n’est monomaniaque !

    Cela signifie que l’on peut trouver des jeunes mamans sur des sites de mode, des amateurs de trek sur des pages hyperlocales, et des intentionnistes voiture électrique sur des sites sur le réchauffement climatique.

    L’intérêt pour nous, c’est que les publicités auxquelles ces populations sont exposées ne se trouvent pas que sur les pages qui parlent d’allaitement, de trek ou de voitures. L’inventaire disponible est démultiplié par rapport au ciblage d’une thématique donnée.

    Ensuite, nos algorithmes viennent trier, sélectionner, pour ne garder que les pages où la population ciblée est la plus sur-représentée.
    Évidemment les pages thématiques sont éligibles. Mais en fonction de l’objectif d’affinité, le nombre de pages éligibles (visitées par la même population, mais sur d’autres thématiques) est très significativement augmenté.

    Les inventaires publicitaires disponibles sont donc bien plus importants avec cette approche.

    Tout cela ne serait pas possible si nous étions tous monomaniaques, ou si l’on ne regardait les pages qu’une par une…

  • Granularité et efficacité

    Granularité et efficacité

    Il y a longtemps, bien longtemps ;-), j’avais écrit cet article, Small is Beautiful, dans lequel je calculais les affinités maximales en fonction de la taille de la cible et de l’audience du site. J’arrivais à la conclusion, toute théorique à l’époque, que les affinités ne pouvaient être élevées que pour les petites cibles sur les petits sites.

    Pour rappel, l’affinité sur une cible se calcule à partir du pourcentage d’impressions ciblées. Plus précisément :

    \[ affinite (impressions) = 100 * { ImpressionsCiblées / ImpressionsAchetées \over TailleCible / PopulationTotale } \]

    Une affinité de 200 signifie qu’on fait deux fois mieux que sans ciblage, 300, trois fois mieux etc.

    L’affinité est donc un indicateur d’efficacité.

    Depuis cet article, Implcit a sorti ses produits, signé ses clients et s’est frotté à la réalité du marché.

    On décrit parfois notre activité comme du médiaplanning. Il y a en effet des similitudes : utilisation d’un panel, ciblage contextuel… Mais la comparaison s’arrête là.

    Je parle parfois de médiaplanning sous amphétamines programmatiques.

    Pourquoi ? Parce que le programmatique offre une granularité incomparable avec le médiaplanning classique. Que ce soit en télévision (quelques dizaines de chaînes, certaines avec des audiences supérieures à 10%), ou sur internet (analyse au niveau de domaines), la granularité reste assez large.

    En programmatique, il est possible de travailler au niveau des URLs. Et là, on obtient une granularité optimale !

    On le constate, les niveaux d’affinités que l’on obtient sont pratiquement toujours au dessus de 200, et très souvent de l’ordre de 300 ou 400 !

    Pour mes lecteurs habitués à la télévision, où une affinité de 150 commence à être intéressante, c’est une petite révolution, non ?

    Le programmatique explique la granularité des supports publicitaires.

    L’adaptation des cibles aux besoins réels achève d’expliquer ces fortes affinités. En effet, vous ne pouvez pas dépasser une affinité de 200 sur une cible (les femmes par exemple), qui dépasse 50% de la population. Or le digital a apporté à la publicité les concepts de l’ultraciblage et du ciblage comportemental.

    Sur Internet, personne ne cible les femmes. On cible les femmes intéressées par la mode, ou qui cherchent des lieux de vacances. Sur Internet, on a donc des cibles plus petites qu’en médiaplanning classique.

    Et qui dit petite cible, dit affinité maximale plus élevée.

    Autrement dit, la double granularité des cibles et des supports permet des affinités, et donc des efficacités bien plus élevées.

  • L’audience adressable, une meilleure représentation de la réalité du ciblage ?

    L’audience adressable, une meilleure représentation de la réalité du ciblage ?

    J’ai déjà parlé du vilain petit secret de la couverture sur cible, en mélangeant l’usage des adblockers et surtout l’impact des data.

    Mais mon article précédent m’inspire cette réflexion : l’audience adressable ne devrait-elle pas être un indicateur clé du marché ?

    Qu’est-ce que l’audience adressable ?
    A la différence de la couverture sur cible dont je parlais, l’audience adressable correspond à un maximum absolu.

    Autant on peut saisir à bras le corps la question des cookies, et se dire « pourquoi perdre 50% de ma cible, allez ! je vais faire du ciblage contextuel avec Implict et toucher 100% de ma cible ! ». Autant, l’audience adressable n’offre pas d’alternative.

    Car on ne parle pas ici de choix techniques, mais tout simplement d’individus qu’on ne peut pas toucher.

    Par définition vous ne pouvez pas toucher à la télévision une population qui n’a pas la télé.
    De même, vous ne pouvez pas toucher sur Internet une mamie qui n’a ni smart phone, ni tablette, ni ordinateur, et encore moins de connexion internet !
    Vous ne pouvez pas écrire un courrier à quelqu’un qui n’a pas d’adresse.

    Les annonceurs ont intégré certaines de ces restrictions pour des cibles simples : les jeunes sans télé, les vieux sans internet. Ou les jeunes avec les adblockers.

    Mais il y a de nombreux cas, où l’impact est plus insidieux.

    Quelle est l’audience adressable d’une population définie par des critères comportementaux ? Les visiteurs d’un site, les internautes avec tel centre d’intérêt…

    Dans ce cas, l’audience adressable est la conséquence d’un profil particulier qui n’est pas a priori connu. Et il est facile d’oublier qu’une part massive de la population ciblée peut être équipée d’un adblocker et sortir du périmètre adressable.

    Quand on mesure la qualité d’un ciblage, on utilise la notion d’affinité :

    \[Affinité = 100 {PourcentageDImpressionsCiblées \over Part De La Cible Dans La Population}\]

    Or prenons l’exemple d’une cible qui représente 20% de la population, mais qui utilise des adblockers à 50%.

    Il est donc deux fois plus dur de toucher cette population. Supposons que cela se traduise par une division par deux du pourcentage d’impressions ciblées.

    Alors, mathématiquement, l’affinité se trouve divisée par deux aussi.

    Ne faudrait-il pas introduire une notion de « part adressable » de la cible dans la population » ? Auquel cas, cette part vaudrait 10% et non 20%.

    Si on veut raffiner, ne faudrait-il pas définir une « part adressable », non pas sur la population internaute, mais sur la population internaute adressable ? En effet, la population de référence est la population internaute (soit environ 54 millions d’individus). On ne prend pas comme référence la population française en entier (environ 67 millions d’individus).

    Donc la part adressable d’un groupe quelconque sur Internet pourrait se définir ainsi :

    \[PartAdressable = {NombreDIndividusAdressablesDansLeGroupe \over NombreDIndividusAdressablesDansLaPopulationInternaute}\]

    Dans notre exemple, une cible de 20% des internautes (soit 10,8 millions), dont la moitié utilise un adblocker, représenterait, dans une population adressable de 54 millions, dont 20% (par exemple) utilisent un adblocker, une part adressable de :

    \[PartAdressable = {10,8 * (1 – 50\%) \over 54 * (1 – 20\%)} = {5,4 \over 43,2} = 12,5\%\]

    Donc, la cible adressable représenterait 12,5% de la population adressable. Cette proportion me semble mieux refléter le potentiel de cette cible sur Internet.

    Qu’en pensez-vous ?

  • Faut-il interdire la publicité ciblée ?

    Faut-il interdire la publicité ciblée ?

    Il y a une tendance anti-publicité en ce moment, ne nous en cachons pas.

    Elle se traduit par une série d’évolutions de nature différente, mais qui vont toutes dans le même sens :

    • Des comportements individuels
    • Des évolutions légales
      • Le RGPD vient organiser la dépose de cookies
      • La CNIL renforce le recueil du consentement
    • Des évolutions technologiques
      • Les uns après les autres, les navigateurs bloquent les cookies tiers
      • Le consentement sur les iPhones est géré directement par Apple
      • Les adresses IP pourront être masquées dans l’univers Apple
      • Même des tentatives de contournement comme FLoC se heurtent au cadre réglementaire Européen

    Certains, comme chez Apple, veulent tuer le modèle publicitaire. Est-ce pour que les flux financiers passent exclusivement par des abonnements sur lesquels la firme touche 30% ? Meuh non, Apple est purement désintéressée, et ne se soucie que du bien-être de ses utilisateurs 😉 !

    D’autres comme Google, sont légèrement schizophrènes. Alors que l’essentiel des revenus de la société vient de la publicité, les développeurs de Chrome semblent décider seuls de la fin du fondement technique de la publicité digitale, le cookie.

    Le public comprend rarement les choix auxquels il est soumis.
    Pourtant il n’est pas con, le public. On ne le lui a juste pas expliqué.
    Avant HADOPI, il ne savait pas toujours que les artistes gagnaient de l’argent en vendant des disques. Aujourd’hui, il ne sait pas que les sites ne gagnent souvent leur vie que grâce à la publicité. Et il faut dire que le cadre réglementaire qui a encadré la mise en place du RGPD n’a pas aidé. Quel est l’intérêt de donner aux internautes la possibilité de paramétrer les sociétés auxquelles ils donneront le droit de conserver leurs données ? Même moi, qui bosse dans ce secteur depuis 23 ans, je ne connais pas la moitié de ces sociétés !

    Et la CNIL ? Dans le monde des études, certains les appellent les Ayatollahs ! Pas de consentement, pas de publicité ciblée.

    Existe-t-il des publicités non ciblées ? Là, je peux être affirmatif, la réponse est non ! Si on ne peut pas cibler la publicité, on n’en fait pas, c’est tout simple. Donc interdire la publicité ciblée revient à interdire la publicité.

    Prenons quelques exemples chiffrés.
    Si la moitié de son budget est dépensé sur des personnes qui ne sont pas dans sa cible, l’annonceur râle, mais se raccroche au principe de Wanamaker : « Je sais que la moitié des sommes que je dépense en publicité l’est en pure perte mais je ne sais pas de quelle moitié il s’agit ». 50% ça passe.

    A l’opposé, Criteo a inventé le ciblage individuel. Chaque publicité est créée pour un individu unique : celui qui a mis une paire de chaussures rouges dans son panier mais ne les a pas encore achetées. En théorie, il touche donc environ 0,000002% (1 internaute sur 55 000 000) de la population. Sans ciblage, dépenser « en pure perte » 99,999998% de son budget n’est pas acceptable.

    Où est la limite ? 60% de pertes ? 90% ? 95% ? Ca dépend de la valeur de la cible, et du coût de la pub.

    Revenons-en à la CNIL. Pas de consentement, pas de publicité ciblée. Qu’est-ce que le ciblage ?

    Il est devenu évident que le ciblage sur la base de données personnelles entre dans la catégorie qui requiert un consentement éclairé.

    Le cas de FLoC est plus subtil. Le ciblage ne repose pas sur des données individuelles directement exploitées, mais sur des données individuelles, recueillies de façon anonyme et agrégées, et activées sans qu’il soit possible d’identifier l’individu derrière la publicité. Et bien FLoC n’entre pas dans le cadre défini par la CNIL. C’est pourquoi les tests de FLoC excluent l’Europe, et pourquoi FLoC aura besoin d’un consentement explicite pour cibler les internautes en Europe.

    Quid du ciblage contextuel ? En théorie, le ciblage contextuel est un ciblage. Il demanderait donc un consentement explicite des internautes. On m’a rapporté que c’était la position de certains membres de la CNIL.

    Qu’est-ce alors que le ciblage contextuel ? Sélectionner des pages qui parlent d’oenologie pour toucher des gens qui s’intéressent au vin, est-ce du ciblage ? Ou savoir que X% des publicités sur telle page sont servies à des amateurs de vin ?
    Quel niveau de connaissance sur le contexte serait donc considéré comme du ciblage ? Peut-on « oublier » que l’on sait que L’Equipe parle de sports pour éviter de tomber sous le coup du consentement en ciblant « par hasard » les amateurs de foot ?

    Non, c’est clair, le consentement ne peut pas s’appliquer au ciblage contextuel. Ou alors, il faudrait tuer la publicité.

    Donc, plutôt que dire « pas de consentement, pas de ciblage », il faut dire « pas de consentement, pas de ciblage fondé sur des données individuelles ».

  • Les régies ont besoin du contextuel

    Les régies ont besoin du contextuel

    La fin du tout data se traduit par une diminution des CPM pour de nombreuses régies.

    Déjà malmenées par la suprématie des clics, qui avantage les contenus de mauvaise qualité, comme je l’ai écrit maintes fois, c’est maintenant l’action combinée la disparition des cookies et de la baisse du consentement qui vient les frapper.

    Une impression publicitaire mise aux enchères sans data associée (ou sans data associable), pour cause d’absence de cookie tiers ou de consentement, cette impression fera moins l’objet d’enchères débridées. Son prix d’achat sera donc souvent bien inférieur à une impression qui peut servir à une campagne de retargeting par exemple.

    Les régies tentent donc de convaincre les acheteurs que leurs environnements sont de bonne qualité et qu’ils peuvent les acheter même sans data. Mais alors, il suffit que l’agence fasse volontairement ou non l’une de ces deux actions pour ruiner les efforts de la régie :

    • laisser cochée la case « Do not buy impressions without cookies » (comportement par défaut de nombreuses DSP comme Xandr)
    • ou simplement (et c’est encore plus pervers) configurer un capping sur la campagne. Le capping se fonde aujourd’hui sur des cookies, configurer un capping entraîne de facto l’exclusion des impressions sans cookies.

    Dans les deux cas, la DSP ne placera pas d’enchère sur les impressions sans data, même si les data ne sont officiellement pas utilisées pour la campagne.

    Même sur des campagnes sans data, il est donc difficile de valoriser des impressions sans cookies ou sans consentement.

    Quand on y pense, à quoi servent les data ? A cibler. C’est tout.

    Et si on pouvait cibler sans data ? C’est ce que permet le contextuel. En connaissant bien les profils de ses audiences, une régie peut proposer un ciblage contextuel performant aux acheteurs.

    Avec le ciblage contextuel, les acheteurs peuvent toucher les individus qui intéressent les annonceurs. Une impression ciblée, que ce soit par des data ou grâce à au contexte, pourra être mieux valorisée. Lorsqu’on n’achète pas au hasard, on accepte de payer le prix.

    Mais, me direz-vous (votre pertinence ne cesse de m’impressionner !), même si on cible avec le contexte, on peut oublier de décocher la case « cookies » ou toujours chercher à imposer un capping ! Et vous avez raison !

    Pour le capping, il y a des pistes prometteuses, sur lesquelles nous travaillons, et qui mériteront un article dédié.

    Quant à la case « cookies » qu’il faut décocher, j’ai une solution radicale, et qui marche aussi pour le capping. Il suffit que la régie n’envoie que des impressions sans cookies pour ces campagnes contextuelles. Des impressions sans cookies envoyées pour une campagne qui demande des cookies, ça donne une campagne qui ne dépense pas. Et une campagne qui ne dépense pas, ça se voit, et ça se corrige.

    Un trader qui se trompe de configuration mais dont la campagne « délivre » (un jour j’écrirai un article complet sur ces anglicismes : « délivre », traduction de « deliver », mais en Français, à qui cette campagne rend-elle sa liberté ?), croira avoir fait le boulot.
    Et s’il n’a pas d’impératifs de performance, il pensera avoir fait le boulot et ne regardera pas plus loin. Mais si la campagne ne « délivre » pas (qui ? La Reine des Neiges ?), il se dira que quelque chose ne va pas.

    Bref, un ciblage contextuel sur des impressions sans cookies, ça fait les affaires des régies (et des princesses peut-être).

    Libérée! Délivrée! GIF - Liberee Delivree Lacher GIFs

    Autre argument, la couverture.

    Si vous croyez que la couverture était l’ancêtre de la couette (passez au paragraphe suivant sinon), je me permets une petite explication : la couverture correspond au pourcentage d’une cible qui a été touchée par une campagne.

    Si une campagne ne touche que les impressions AVEC des cookies, la couverture maximale que l’on peut espérer est d’environ 50% (20% en 2023). Si une campagne ne touche que les impressions SANS cookies, la couverture maximale est aussi d’environ 50% (et 80% en 2023).

    Ce qui est intéressant, c’est que ces deux 50% sont plus ou moins exclusifs (j’écrirai un article là-dessus, promis). Soit vous avez un cookie, soit vous n’en avez pas.
    Donc cibler contextuellement des impressions sans cookies, en complément d’une campagne qui cible des impressions avec des data, c’est la meilleure manière de se donner une possibilité de toucher potentiellement 100% de sa cible.

    Tous les acheteurs devraient avoir ça en tête.

    Cibler par le contextuel permet aussi de se démarquer des GAFA. Leur force, c’est les data. En acceptant d’être jugées sur leurs data, les régies se placent sur le terrain de jeu de leurs concurrents géants.

    A l’heure du rejet de l’utilisation des données personnelles, il est temps que les régies déplacent la discussion sur leur terrain de jeu.

    Les meilleurs défenseurs et promoteurs du ciblage contextuel devront être les régies.

  • Et vous, ça vous fait quoi d’être une cible ?

    Et vous, ça vous fait quoi d’être une cible ?

    « Deux lions à l’affût dans la jungle » du Douanier Rousseau (détail)

    Pourquoi les publicités ciblées sont-elles massivement rejetées par le public ?

    Comme souvent, les raisons sont variées, et certaines, modérées, se nourrissent d’autres, plus extrêmes, pour exister par procuration.

    Regardons quelques motivations, en commençant par les plus soft.

    Aussi étonnant que cela paraisse 😉, il semblerait que certaines personnes n’aiment pas la publicité !
    Si, si, je vous assure, ça existe !

    Pour ces personnes, l’expérience utilisateur est perturbée par les publicités. Le fait que la publicité soit ciblée ou pas leur importe peu. La pub c’est mal. Point.

    Je me dis souvent que la loi Hadopi sur le téléchargement illégal de fichiers (films, musique principalement) n’a peut-être pas eu l’effet prévu, mais a atteint un autre objectif tout aussi important. Les très rares sanctions (coupure d’accès internet), et les moins rares avertissements ont été relayés par les médias et le bouche à oreille. Et grâce à cette communication, les jeunes ont été informés, souvent pour la première fois, que les contenus ont un coût, donc un prix.

    La semaine dernière, exilés à la campagne, confinement oblige, on a fouillé des cartons de vieux DVD. Nous avons regardé A bord du Darjeeling Limited (génial film de Wes Anderson en passant), et j’ai dû expliquer à mes garçons pourquoi on avait une expérience utilisateur aussi pourrie. En effet, sous prétexte d’éduquer le spectateur, l’éditeur du DVD imposait la diffusion d’un clip agressif (images et musique brutale) qui assimile le piratage à du vol, voire à un crime !

    OK, il faut bien éduquer le marché, mais ce clip a eu l’effet inverse de celui recherché. Ceux qui devaient le supporter étaient justement ceux-là mêmes qui avaient payé le DVD, pas les pirates !
    Evidemment, le clip ne pouvait pas être zappé. Ni les deux bandes annonces de trois minutes chacune (pour des films qui, 15 après, sont retournés dans leur légitime anonymat) qui le suivaient !!! En tout, 10 minutes d’attente (fois deux car j’ai eu la bonne idée de revenir au menu pour changer la langue ! Ma femme et mes enfants m’ont interdit de toucher à la télécommande).
    L’expérience utilisateur est tellement lamentable, que cette pratique, heureusement abondonnée, a dû en pousser plus d’un à télécharger illégalement des films pour éviter de se taper ces contenus.

    C’est un peu ce qui est en train de se passer en ce moment avec les bandeaux d’acceptation des cookies. OK, ça part d’une bonne intention (appliquer une loi qui vise à protéger nos données). Mais ces bandeaux perturbent l’expérience utilisateur, et mettent l’accent sur le ciblage publicitaire.

    Il faut bien sûr éduquer au ciblage publicitaire. Mais tel que c’est fait, dans un environnement agressif (p…. de bandeau !), le message ne peut pas être présenté de façon positive.

    Positive, la pub ?
    J’ai souvent entendu (même de la part de personnes qui travaillent dans ce secteur) : les sites n’ont qu’à trouver d’autres sources de financement. Plus facile à dire qu’à faire ! Les abonnements ne fonctionnent que sur les gros sites d’information. Et la parade du native n’est jamais que de la publicité qui se cache derrière de l’éditorial. Pour moi, c’est pire que de la publicité, car le contrat moral qui sépare l’information de la publicité n’est pas respecté.

    Alors oui, certains n’aiment pas la publicité, et ils n’ont pas tort !

    Ensuite, certains acceptent la publicité mais n’aiment pas le ciblage.

    Quand je dis que je travaille dans la publicité digitale, on me dit systématiquement « Ah oui, c’est toi qui me balance des pubs pour les chaussures que j’ai vues il y a trois semaines ? ».

    Il y a ciblage et ciblage.
    Recevoir une publicité ciblée sur un centre d’intérêt ne pose pas de problème à cette population. Soit ils ne se rendent pas compte que la publicité est ciblée, soit ils considèrent que la publicité ciblée leur évite de recevoir des messages inutiles (à la fois dérangeants pour l’internaute, et une perte sèche pour l’annonceur).

    Le problème, c’est l’hyper-ciblage.
    Ceux qui ne travaillent pas dans la publicité digitale ne peuvent pas deviner (et souvent ne peuvent pas comprendre, par manque de compétences techniques) que l’hyper-ciblage ne vise pas Laurent Nicolas, né le 7 mai 1970 à Sedan, mais qu’il vise l’identifiant uid=ff94d201-3b5b-47e8-a884-dd4315c37a4d (ce n’est pas mon vrai identifiant, n’essayez pas de me cibler 🙂 ).

    Pour tous ces gens, la majorité des internautes, le ciblage est fondé sur des données qui permettent de les identifier nomminativement !
    Avec ses publicités matraquées sans fin, Criteo a beaucoup fait pour éduquer le marché, à son corps défendant.
    C’est grâce à l’hyper-ciblage, les gens ont compris qu’ils étaient ciblés. Mais, faute d’explication, ils croient que Criteo connaît leur nom, leur adresse et leur téléphone. Et faute de capping (j’expliquerai un jour pourquoi Criteo ne met pas de capping), ce qui aurait pu être un service (dans cet article de 2012 (!), j’expliquais comment j’utilisais le retargeting comme pense-bête), est devenu une gêne.

    L’hyper-ciblage est responsable d’une partie du rejet de la publicité !

    Troisième catégorie, ceux qui refusent toute forme de ciblage.

    La confusion qui règne entre données individuelles et données personnelles est utilisée à dessein par ceux qui refusent tout ciblage, et tout traçage.

    Ceux-ci installent donc des adblockers, non seulement pour l’expérience utilisateur, mais aussi pour refuser tous les types de cookies, même ceux qui sont liés à du comptage de visiteurs sur des sites.

    On trouve dans cette catégorie de nombreux informaticiens, qui effacent leurs cookies de session, utilisent le moteur de recherche Qwant, et le navigateur Brave. Eux ne peuvent pas être accusé de ne pas comprendre la différence entre un cookie et un numéro de téléphone. Ils rejettent tout traçage. Point.

    Ces arguments de contrôle et de protection de la vie privée sont tout à fait acceptables.
    En revanche, je décroche lorsqu’ils dérivent vers des théories complotistes. Comme les données sont personnelles, les mouchards espions (comme il convient d’appeler les cookies pour renforcer leur dangerosité) permettent à ceux qui dirigent le monde (eux seuls savent qui, mais passons) de tracer nos actions sur Internet, mais aussi le contenu de nos ordinateurs, nos comptes bancaires, nos emails et nos conversations privées.

    Si tout ceci est effectivement possible, ce n’est pas avec des cookies publicitaires, mais avec des virus. C’est une toute autre histoire. Mais dans le complotisme, l’amalgame est roi !

    Alors que penser de cet article de DuckDuckGo qui montre comment ne pas être ciblé par Floc (le système de ciblage anonyme que Google développe) ?
    Je voulais écrire sur ce sujet, mais mon post est déjà assez long, revenez la semaine prochaine !

    Personnellement, je n’ai aucun problème avec la publicité ciblée :

    • je sais pertinemment que c’est un identifiant anonyme qui est suivi et ciblé
    • je préfère avoir des publicités pour des produits que je pourrais potentiellement acheter, plutôt que pour des serviettes hygiéniques ou des montres de luxe

    En revanche, j’ai des problèmes avec la publicité (ciblée ou non) :

    • lorsqu’elle est matraquée sans capping
    • lorsqu’elle prend trop de place par rapport au contenu (sites « arbres de Noël »)

    Et vous, dans quelle catégorie vous situez-vous ?

  • Small is beautiful : à propos des cibles et des audiences

    Small is beautiful : à propos des cibles et des audiences

    Comment mesurer la qualité du ciblage d’une campagne publicitaire ?

    Il y a plusieurs façons de prendre le problème.

    Déjà, comment mesurer son ciblage ? C’est une question fondamentale, qui mérite au moins un article exclusif. Considérons aujourd’hui que l’on a une mesure acceptable du ciblage.

    La question qui se pose alors est : quels indicateurs utiliser ? 
    On dispose de peu d’informations :

    • Taille de la cible : TailleCible
    • Population totale : PopulationTotale
    • Nombre d’individus de la cible qui ont été exposés à la publicité : IndividusCibleExposés (sur un site)
    • Nombre d’individus exposés à la publicité : IndividusExposés (sur un site)
    • Nombre d’impressions publicitaires qui ont touché  la cible : ImpressionsCiblées (sur un site)
    • Nombre d’impressions publicitaires achetées : ImpressionsAchetées
    • Nombre total d’impressions publicitaires du site : ImpressionsTotalesSite

    Le dernier est difficile à obtenir pour un acheteur (seul le site peut le connaître, et encore)…

    On peut combiner ces indicateurs de base pour obtenir des indicateurs de performance simples :

    \[ tauxExclusivité = {CibleTouchée \over ImpressionsAchetées} \] \[ couvertureSurCible = { IndividusCibleExposés \over TailleCible } \] \[ tauxExposésSurCible = {IndividusCibleExposés \over IndividusExposés} \] \[ poidsDeLaCible = {TailleCible \over PopulationTotale} \]
    • tauxExclusivité : pourcentage des publicités achetées qui ont touché leur cible. Ce taux exprime l’exclusivité du ciblage (peu de perte).
    • couvertureSurCible : pourcentage de la cible touchées par la publicité.
    • tauxExposésSurCible : pourcentage des contacts publicitaires qui sont dans la cible.
    • poidsDeLaCible : pourcentage de la population totale qui est dans la cible.

    La grande question qui se pose maintenant, c’est comment analyser ces chiffres ? En effet, si le tauxExposésSurCible est de 10%, est-ce bien ou est-ce nul ?

    La réponse est, comme toujours, « ça dépend ». Ca dépend surtout de la taille de la cible.  Si vous ciblez les femmes qui représentent environ 50% de la population, 10% c’est complètement nul.  En revanche, si vous ciblez les fans de J L Borges qui bossent dans le programmatique, (qui d’autre à part moi ? 70 sur 70 millions de français ? Soit 1 sur 1 million ?) atteindre 10% constitue un véritable exploit !

    Alors, on a inventé les indices composites, ou index.
    Par exemple, si on compare le tauxExposésSurCible (IndividusCibleExposés / VisiteursExposés) avec poidsDeLaCible (TailleCible / PopulationTotale), on répond à cette question de la performance du ciblage.

    Pour rendre les indices lisibles, et les distinguer des taux, on les ramène à 100. En dessous de 100, on fait moins bien que l’aléatoire, au dessus, on fait mieux que l’aléatoire.

    \[ affinite (individus) = {tauxExposésSurCible \over poidsDeLaCible } \] \[ affinite (individus) = {IndividusCibleExposés / IndividusExposés \over TailleCible / PopulationTotale } \]

    Donc pour les femmes dans mon exemple :    

    \[ affinité (individus) = 100 * { 10 \over 50 } \] \[ affinité (individus) = 20 \]

    Et pour les amateurs de Borges et de programmatique :  

    \[ affinite (individus) = 100 * { 10 \over 0,0001 } \] \[ affinite (individus) = 1 000 000 \]

    On mesure donc que 10% sur les adulateurs de Borges est un tour de force !

    On peut aussi faire un  Indice d’affinité composite (impressions et individus)     

    \[ affinite (composite) = 100 * { ImpressionsCiblées / ImpressionsAchetées \over TailleCible / PopulationTotale } \]

    C’est l’indice utilisé par DAR de Nielsen. Il présente l’avantage de combiner des mesures publicitaires (ImpressionsCiblées et ImpressionsAchetées) et une référence extérieure (TailleCible et PopulationTotale).

    Comment varient de tels indices ?

    Il faut avoir en tête que les indicateurs de base sont liés entre eux :    

    IndividusCibleExposés < IndividusExposés (il y a moins de personnes de la cibles touchées sur le site que de personnes exposées sur le site)
    IndividusCibleExposés < TailleCible (il y a moins de personnes de la cible touchées sur le site que de personnes dans la cible)

    \[ {IndividusCibleExposés \over IndividusExposés } < 1\] et \[ {IndividusCibleExposés \over TailleCible } < 1\]

    Après quelques développements que je vous épargnerai ici, on arrive à une formule qui relie le maximum d’un indice à la taille du site (sa couverture) et au poids de la cible dans la population totale.

    \[ Affinité < 100 * {PopulationTotale * min ( TailleCible , IndividusExposés) \over TailleCible * IndividusExposés} \]

    Autrement dit :

    • Plus une cible est petite, plus on peut obtenir un indice d’affinité élevé
    • Plus un site est petit, plus on peut obtenir un indice d’affinité élevé

    Le graphique ci-dessous présente les différentes valeurs maximales que peut prendre un indice d’affinité en fonction de la taille du site et de la taille de la cible.

    Comment ceci se traduit-il opérationnellement ?
    Si on choisit des cibles trop larges, on ne pourra pas bénéficier d’affinités importantes.  L’affinité maximale pour toucher la cible femmes est de 200.
    Symétriquement, si on choisit de sites à forte audience, on ne pourra pas obtenir d’affinités élevées.  L’affinité maximale d’un site qui fait 50% d’audience est de 200.

    Les conclusions de cette petite démonstration sont les suivantes :

    • Les indices d’affinité sont une bonne manière d’estimer la qualité d’un ciblage
    • Il faut connaître leur variabilité pour analyser les résultats obtenus
    • Plus une cible sera petite plus il sera possible d’obtenir des affinités importantes
    • Plus une audience sera petite, plus il sera possible d’obtenir des affinités importantes
    • La combinaison des deux (petite cible sur petit site extrêmement affinitaire) donne les indices les plus élevés

    Les petites cibles peuvent être socio-démographiques ou comportementales. Dans le monde post-data, on n’ira jamais au ciblage one-to-one

    Une remarque : j’ai fait la démonstration avec une notion de site.  J’aurais aimé pouvoir dire que le ciblage affinitaire favorise les petits sites. C’est vrai si on cible au niveau domaine (ce qui est souvent le cas). Mais si on dispose d’une granularité plus fine, en travaillant par sous-domaine, ou même à l’URL, on peut aussi s’approcher des maxima.

    En revanche, il est tout à fait vrai de dire que ça ne sert à rien d’acheter un gros carrefour d’audience pour toucher une cible de taille inférieure à l’audience dudit site…

    Alors, Small is beautiful ?  C’est le titre d’un livre de l’économiste d’origine Allemande E. F. Schumacher. Il y défend que l’économie moderne n’est pas durable, que les ressources de la terre sont limitées et que la pollution est un problème planétaire.
    Rien de révolutionnaire, donc, en 2021. Sauf qu’il a écrit ça en 1973 ! Il prônait une économie du petit, plus tard appelée économie Bouddhiste…

    Alors, en 2021, pour voir précis, voyons petit ?

  • Contextuel : vers une meilleure redistribution pour les éditeurs ?

    Contextuel : vers une meilleure redistribution pour les éditeurs ?

    La publicité de 2021 sera contextuelle ou ne sera pas.

    Certes, il y aura du ciblage, des data, du first party, des emails hashés, des tourterelles. Mais quelle part des inventaires du « monde libre » (entendez hors GAFA) sera achetée sur ces bases ? 
    Même en TV connectée (qui y voit pourtant une immense occasion de développement), «  Moins de 25% [des français] à l’horizon 2021 » selon Vincent Salini de France Télévision.  Si on prend en compte l’évolution des box, on montera peut-être à 30%, 50% dans 20 ans ?

    Le web perd ses cookies, le mobile IDFA. Les oiseaux sont lourds. Le web et les apps ne seront pas majoritairement ciblables.
    Et encore, quand on parle de la population, on ne parle pas des volumes publicitaires. 
    De plus, s’il est potentiellement possible de cibler un individu, quelle part de son inventaire est réellement ciblable ? La moitié ? Rappelons qu’il faudra que tous les acteurs de la chaîne arrivent à collecter des emails (ou téléphone) ET obtenir le consentement pour l’utiliser dans la publicité ET synchroniser leurs identifiants…

    Si on se place dans le cas le plus optimiste pour les cibleurs, on obtient l’équation suivante : La moitié (au mieux) de l’inventaire servi à la moitié (au mieux) des individus pourra être ciblée.

    On arrive donc à un potentiel maximal de 25% du volume publicitaire (TV et digital hors GAFA) qui pourra être ciblé.
    Le reste, la grande majorité, 75% minimum, mais peut-être même 90% qui sait ?, devra être acheté avec ce qu’on appelle le contextuel. Ah, con.text.uel, le buzz word de 2020 !

    Qu’est-ce que le contextuel ? Tout ce qui est commun à tous les individus :

    • l’URL ou le programme TV
    • L’heure, le jour
    • Le support technique (modèle de télévision, navigateur internet, la taille de l’écran parfois)
    • Les formats publicitaires

    Qu’est-ce qui n’est pas contextuel ? Tout ce qui est spécifique à un individu :

    • Son profil déclaratif
    • Ses informations personnelles (email, téléphone)
    • Son historique de navigation (web) ou ses habitudes de consommation (télévision)
    • La fréquence et la récence auxquelles il a été exposé précédemment à la campagne
    • Sa localisation géographique précise

    Chaque source de donnée de ciblage a créé son propre écosystème avec ses acteurs qui collectent et revendent des profils, des comportements, des bases d’emails, des bases d’IP géolocalisées… Et on a souvent besoin de toutes les activer pour multiplier les chances de vendre son inventaire.

    Petit à petit, la data a pris une part de plus en plus importante de la chaîne de valeur. Aujourd’hui, 50% du budget d’achat est capté par les data. De nombreuses analyses présentent le solde restant aux éditeurs : environ 40% du prix payé par l’annonceur revient in fine à l’éditeur. 
    OK, celui-ci peut recevoir une contrepartie du fournisseur de data qui lui a acheté ses data. Mais l’ordre de grandeur de 50% qui arrivent dans la poche de l’éditeur constitue je pense une bonne approximation.
    On le voit, le contextuel n’a pas la même diversité de contenus que la data. Les intermédiaires seront donc moins nombreux.

    Le taux de prélèvement de ces intermédiaires sera donc inférieur à ce qu’il est aujourd’hui avec la data. 25% au lieu de 50% ? A la grosse louche, pourquoi pas ?

    Astérix et Cléopatre (OK, je n’ai pas les droits, mais j’adore tellement cette blague !
    Mes garçons la citent à chaque fois qu’ils doivent couper un gâteau…)

    Mais, me diront certains esprits chagrins, la valeur d’un contact ciblé est bien supérieure à celle d’un contact non ciblé ! Les annonceurs vont donc réduire leurs investissement publicitaires !
    Ces esprits chagrin n’ont pas complètement tort. Il y aura des arbitrages, et certains média se verront certainement revalorisés.  Mais pensez-vous vraiment que les budgets des annonceurs vont diminuer ? La part du marketing dans les business B2C répond à des exigences indépendantes des média eux-mêmes, notamment concurrentielles. 

    La manne que se partageront éditeurs, technos et fournisseurs de data et de contexte, cette manne se réduira peu (10%  au pire ?)sur les média digitaux et télévisuels.

    En résumé, un éditeur qui gagne 50% de X aujourd’hui, gagnera :

    • 50% (part du budget pour l’éditeur) de 25% (volume publicitaire vendu avec des data) de X (budget annonceur identique lorsqu’il y aura des data) = 12,5%
    •  75% (part du budget pour l’éditeur) de 75% (volume publicitaire vendu en contextuel) de X – 10% (budget annonceur réduit) = 50,6%

    Soit 12, 5% + 50,6% = 63% vs 50% aujourd’hui !
    13% de revenus en plus ? Même avec une baisse de 25% des budgets (à laquelle je ne crois pas), on arrive à 54,7% du budget actuel des annonceurs. 

    Et si le contextuel s’avérait une opportunité de croissance pour les éditeurs ?

    Tout dépendra d’une variable d’ajustement. Dans tout cet article, j’ai parlé du «  monde libre » (hors GAFA). Quelle part de marché supplémentaire pourront-ils prendre ? Ils sont bien moins impactés par la fin du tout data. Mais le marché continuera-t-il de leur octroyer une part des budgets bien supérieure à leur part de marché des usages ?

    Alors, face aux GAFA, le contextuel, planche de salut des éditeurs ?