Étiquette : cookies

  • Pourquoi s’acharner ? Les cookies tiers sont déjà morts !

    Pourquoi s’acharner ? Les cookies tiers sont déjà morts !

    La couverture d’un album mythique de ma jeunesse : Closer de Joy Division

    On ne parle que de ça depuis ce matin : Google annonce qu’ils laissent plus de temps à l’autorité de la concurrence anglaise (CMA) pour tester son alternative aux cookies tiers (Privacy Sandbox). Voir le court article de Google.

    Google s’est déjà plusieurs fois déjugé en repoussant l’arrêt des cookies. Cette fois, ils utilisent la CMA pour partager la responsabilité. Ça se voit, mais là n’est pas le sujet…

    Je ne peux pas m’empêcher de faire un parallèle avec la loi Hadopi de 2010. Cette loi visait à pénaliser les téléchargements illégaux (de musique essentiellement à l’époque). Il y a eu finalement assez peu d’amendes à payer, mais le bruit de la loi a eu plus d’effets que les sanctions. Grâce à Hadopi, on a commencé à parler de la rémunération des artistes. De nombreux jeunes ne s’étaient jamais posé la question, la loi a permis de les éduquer. Sans Hadopi, les plateformes de streaming légales se seraient-elles développées ?

    Il y a donc un effet indirect des décisions publiques. Hadopi d’un côté, les cookies tiers de l’autre.

    Depuis plus de 4 ans, le marché publicitaire internet vit dans l’incertitude : « comment ferons-nous lorsqu’il n’y aura plus de cookies ? ». Vraiment ? Vous pensez qu’on est restés à attendre dans le stress, avec fatalité ? D’ailleurs, dans fatalité, le « fa » vient de l’indo-européen qui signifie « la parole », fatalité, c’est la parole contre laquelle on ne peut rien, celle de Dieu. Google, un Dieu omniscient ?

    Bref, le marché n’a pas attendu.

    Déjà, Firefox et Safari avaient ouvert le robinet qui vide la baignoire (on parle de data pool) aux data. 40% des contacts publicitaires n’ont déjà plus de cookies tiers du fait de leur blocage par les navigateurs. Ajoutez le RGPD, vous ajoutiez encore 10% en 2022. La moitié des contacts publicitaires n’avaient déjà plus de data associées en 2022. Depuis, la baignoire continue de se vider. Certains annoncent même qu’elle est déjà vidée à 70% !

    Mais surtout, le marché en a marre d’attendre la parole divine !

    L’annonce de la fin des cookies a eu le même effet que la loi Hadopi. Tout le monde (les internautes lambda, les régies, les agences, les annonceurs) a pris conscience que la publicité utilise des data. Quiconque travaille dans la publicité digitale connaît des collègues qui utilisent des adblockers ! Schizophrénie ? Ou simple prise de conscience individuelle ?

    Certains annonceurs, dans la grande consommation par exemple, renoncent à collecter des data sur leurs clients. Bon, d’accord, avec la vente indirecte, ils n’en avaient pas beaucoup. Mais au moins, ils peuvent communiquer sur le respect de la vie privée, et se poser en chevaliers blancs. C’est de bonne guerre…

    Les agences ont une priorité : trouver où dépenser le budget que les annonceurs leur ont confié. Si elles se focalisaient sur les cookies tiers, tout leur budget serait concentré sur 30% des internautes ! Absurde, non ? Elles ont donc l’obligation de trouver des alternatives aux cookies tiers. Et, je le répète, pas sur Google et Meta !

    Les régies voient fondre la valeur de leurs inventaires sans cookies tiers. Celles qui dépendent exclusivement de GAM (le serveur publicitaire de Google) ne peuvent même plus vendre les espaces publicitaires non consentis via GAM ! Pensez-vous que les régies ont renoncé à 70% de leurs inventaires publicitaires ?

    Les internautes enfin, ont pris conscience du caractère intrusif de la publicité. Les taux de consentement baissent. Les sites doivent marchander pour obtenir le Graal du consentement : cookie wall (contenu inaccessible sans consentement), abonnement fictif (à un prix prohibitif)…
    Mais le message est passé, les internautes veulent de la publicité ciblée, mais à la condition qu’ils ne s’en rendent pas compte !

    C’est qu’en quatre ans, des solutions se sont développées. Certaines reproduisent les cookies tiers avec de nouvelles approches. D’autres partent d’un point de vue radicalement différent. C’est le cas d’Implcit, qui offre les mêmes capacités de ciblage que les data (socio-démographique, comportement, centres d’intérêts, intentions d’achats…) mais sur une couverture maximale. En effet, le ciblage contextuel n’a besoin ni de cookies ni de consentement.

    L’annonce d’aujourd’hui sur les cookies tiers est donc un non-évènement.

    Le marché a déjà tourné la page du cookie tiers. Certes, ils sont toujours utilisés, mais personne ne peut décemment fonder une stratégie publicitaire sur les cookies tiers.

    Quelque soit la date réelle de la fin des cookies tiers, le mal est fait. Ils sont déjà cliniquement morts. Ne pratiquons pas l’acharnement thérapeutique sur les cookies tiers !

    Chez Implcit, on ne parle même plus des cookies tiers

  • Réveillez-vous ! Sinon la fin des cookies tiers affaiblira encore plus l’Open Web !

    Réveillez-vous ! Sinon la fin des cookies tiers affaiblira encore plus l’Open Web !

    La force de Google et surtout de Méta, c’est d’avoir construit un écosystème où les données utilisateurs sont constitutives non seulement du modèle publicitaire, mais aussi et surtout du service.

    Ce n’était pas vrai à l’origine pour Google, mais la personnalisation des réponses aux recherches et des vidéos Youtube se fonde sur des données d’historique et améliore le service.
    C’est en revanche central chez Méta, où les contenus ne sont pilotés qu’à partir des data utilisateurs, au premier lieu desquelles le réseau d’amis.

    Il est donc logique que l’intérêt légitime ait été invoqué pour ne pas demander explicitement le consentement. De là à considérer que l’option d’un abonnement payant à 13€ par mois est justifié, il y a un gouffre. Non, Méta cherche à conserver ses data utilisateurs, et l’abonnement payant n’est qu’un repoussoir…

    Légitime ou non, utile ou non, la donnée utilisateurs restera disponible à des fins publicitaires dans Google et Méta (et Amazon…). Car rappelons que la révolution de 2024 ne concerne que les cookies tiers, et donc les identifiants provenant qu’un tiers : dans notre cas la technologie publicitaire est un fournisseur tiers du site où la publicité s’affiche.

    La dimension « tierce » partie est fondamentale ici. C’est directement une prime aux gros. En effet, quand vous possédez votre propre technologie, celle-ci n’est pas « tierce ». Le domaine qui gère les publicités peut être le même que celui qui gère les contenus. C’est d’ailleurs en intriquant finement contenus et publicités que Facebook a réussi à rendre inefficaces les adblockers.

    Quand vous êtes petits, vous ne pouvez pas développer votre propre technologie publicitaire. Vous devez utiliser celle d’un tiers. Et même si en théorie celle-ci peut faire croire qu’elle est hébergée chez vous, avec la bidouille des CNAME, d’une part ça ne marche pas aussi bien (les cookies propres de la plateforme deviennent à leur tour tiers pour le reste du marché), mais en plus Apple ou Chrome ont bien l’intention de bloquer l’usage des CNAME.

    Pire encore, si vous êtes petits, vous avez besoin de regrouper vos forces. Par exemple, en regroupant plusieurs sites. Mais alors, les cookies de chaque site deviennent tiers pour les autres. Donc vous ne bénéficiez pas du regroupement des forces.

    En résumé, la fin des cookies tiers va encore renforcer les plus gros. Comme s’ils avaient besoin de ça !

    Quel est le risque en 2024 ?

    Les alternatives aux cookies pullulent. C’est à la fois leur force (le marché innove) et leur faiblesse, car elles donnent l’image d’un marché éclaté, hétérogène et complexe.
    Les solutions d’identifiants seront toutes très limitées en couverture (5% à 20% chacune, et au mieux 30% en cumulé).

    Le contextuel en revanche, comme Implcit, offre 100% de couverture potentielle. La difficulté est plus de l’ordre de l’éducation du marché (les statistiques demandent plus d’explications que les data utilisateurs).

    Les acheteurs média auront le choix entre une pléiade de solutions partielles, des solutions complètes (statistiques), et celles, monolithiques, connues, des GAMAM. Leur réflexe naturel ne sera-t-il pas de mettre encore plus de budget sur les GAMAM ?

    Je le crains. Mais ce serait une erreur.

    Ce serait une erreur pour la société française.

    80% des budgets publicitaires partent déjà chez Google et Meta. Or, ils ne représentent qu’un peu plus de 40% du temps passé par les internautes. Leur part de marché est donc déjà deux fois leur part de voix !

    Estimation des parts de temps passé par les internautes à domicile sur les principaux sites et les principales applications

    Les 20% restants financent à eux seuls tous les services que vous ne trouvez pas chez Google et Meta, des jeux, certes, mais aussi des films, tous les salaires des journalistes, etc.
    Au lieu de cela, des influenceurs fiscalement planqués à Dubaï s’engraissent en diffusant leurs vidéos sur Youtube, Insta ou Tik Tok…

    Une démocratie a-t-elle plus besoin d’influenceurs corruptibles que de journalistes avec une déontologie ?

    Ce serait une erreur pour les annonceurs.

    On voit fleurir ici ou là des études qui prouvent que le trafic apporté par Google et Meta ne serait pas de bonne qualité. Mais encore faut-il d’une part le prouver et d’autre part que les annonceurs poussent leur analyse au delà des clics et des visites, ce qui est rarement le cas.

    Google et Meta sont très bons pour fournir ce pour quoi ils sont payés. Et tout le monde sait que plus on « force » un comportement (sans même parler de faux clics, juste en modifiant les messages d’appels au clic, ou en optimisant tous les paramètres), plus on apporte de l’audience qui n’est pas vraiment intéressée. Et cette audience « influencée » n’ira pas tellement plus loin.

    Les autres sites en revanche ne disposent pas des mêmes capacités d’optimisation. Leurs performances seront peut-être inférieures à court terme. Mais l’audience qu’ils apportent sera mécaniquement de meilleure qualité, car constituée de personnes réellement intéressées.

    Par exemple, le retargeting apporte une majorité de visiteurs qui seraient revenus même sans publicité !

    La puissance technologique de Google et Meta se retourne contre les annonceurs.

    Si vous voulez une solution qui apporte de la couverture (100% potentiellement contre 30% pour le cumul des identifiants) choisissez le contextuel ! Ces solutions passeront la disparition des cookies sans même s’en apercevoir. Elles vous apporteront de vrais contacts publicitaires, des gens vraiment intéressés (et pas forcés d’une manière ou une autre). Elles vous offriront une transparence que les GAMAM enfouissent sous une couche d’IA (« t’inquiète, tu peux pas comprendre, c’est de l’IA ! »).

    En 2024, réduisez vos investissements chez Google et Meta. Soutenez l’open web, le journalisme et la démocratie.
    Investissez en contextuel. Via Implcit !

  • La fin des cookies va augmenter la couverture des campagnes publicitaires !

    La fin des cookies va augmenter la couverture des campagnes publicitaires !

    Le planning de Google est clair : les cookies tiers disparaissent de Chrome au troisième trimestre 2024. Le 1er juillet 2024, c’est dans huit mois…

    Donc sans cookies, il ne va plus rester que les identifiants dits « universels ». Enfin, si peu universels qu’ils ne couvriront que 10%, 20%, 30% pour les plus optimistes, des internautes. Et qui dit internaute, dit cible potentielle pour les annonceurs.

    Comment envisager alors de continuer à n’acheter que des publicités avec des cookies ? Seules 50% des publicités sont associées à un cookie et un consentement.
    Je trouve déjà bizarre qu’un annonceur accepte que ses campagnes ne puissent, au mieux, toucher que la moitié de sa cible. Il semblerait que la simplicité actuelle (par opposition à une supposée complexité du cookieless) suffise à expliquer ce choix discutable. J’y vois aussi des habitudes et une forte résistance au changement.

    Ce qui peut être vrai à 50% de perte, peut-il encore l’être avec 80% ? Les annonceurs ne peuvent décemment pas se concentrer sur les seuls pékins qui auront des identifiants ? Vous imaginez que toute la publicité digitale ne tourne que sur une minorité de personnes ? Les 80% restants n’auraient plus de publicité ? Ou seulement des publicités sans ciblage ? Vous pensez vraiment que les budgets vont se concentrer, et qu’un même budget divisé par un plus petit nombre de contacts donnera des prix unitaires plus élevés ? Vous avez déjà vu un annonceur augmenter ses coûts, vous ?

    Et les sites dans tout ça ? Des prix unitaires constants sur un inventaire divisé par 2 ou 3, ça fait une baisse de CA de 50% à 70% !

    Non, aucune chance !

    La seule solution, c’est que les budgets publicitaires se déploient sur des inventaires publicitaires sans cookies.

    Ces inventaires ne touchent pas 10%, 20% ni même 50% des internautes, mais bien 100% !

    100% de couverture, allégorie…

    De plus, l’outil d’achats publicitaires leader, DV360 de Google, a d’ors et déjà annoncé qu’il n’utilisera pas les identifiants « universels ». Si Google arrête les cookies dans Chrome pour protéger la vie privée des internautes, ce n »est pas pour utiliser des alternatives aux cookies dans ses autres outils.
    Donc les habitudes de travail et la résistance au changement ne seront plus un argument dans la majorité des cas.

    Au final, paradoxalement, la diminution de la couverture adressable avec des data, va engendrer l’augmentation de la couverture adressable par les annonceurs !

    Avec la fin des cookies, les annonceurs vont pouvoir à nouveau chercher à toucher tous les individus de leurs cibles. Mieux, ils n’auront pas le choix…

    C’est pas une bonne nouvelle ça ?

  • Google louvoie ? Gardons le cap sans eux !

    Google louvoie ? Gardons le cap sans eux !

    Quand on pèse 60% du marché des navigateurs, 80% de celui des adserveurs, 80% des SSP, 80% des DSP, je pense qu’on entre dans la catégorie des « plateformes structurantes ».
    Selon le conseil d’analyse économique, est structurante « une entreprise qui détient un pouvoir de marché structurant – en raison de l’importance de sa taille, de sa capacité financière, de sa communauté d’utilisateurs et/ou des données qu’elle détient – qui lui permet de contrôler l’accès ou d’affecter de manière significative le fonctionnement du ou des marchés sur lesquels elle intervient ».

    Google est une entreprise structurante sur le marché de la publicité en ligne, c’est indéniable.

    Bref, quand Google renifle, la monde de l’adtech éternue.

    Une décision comme l’arrêt des cookies tiers dans le principal navigateur internet du marché ne devrait pas être prise et annoncée par une société privée. L’annonce, 18 mois plus tard, d’un délai de deux ans non plus.

    OK, Google est privé, ils font ce qu’ils veulent. C’est vrai pour toutes les entreprises, mais cet a priori se heurte à la taille des entreprises, et à leur pouvoir structurant.

    « Un grand pouvoir implique une grande responsabilité ». Qui a dit ça le premier ? Spiderman ? Son oncle Ben ? Le narrateur de la BD ? Voltaire ?
    Aucun de ceux-là ! Il semble que la première citation se trouve dans un texte de la convention nationale Française en 1793 « une grande responsabilité est la suite inséparable d’un grand pouvoir ».

    Les conséquences de cette annonce sont gigantesques pour des milliers d’acteurs adtech de toutes tailles. De même que l’annonce de la disparition des cookies tiers le 15 janvier 2020 avait fait l’effet d’une bombe. Le cours d’une société comme Criteo avait perdu 15% en une journée !
    Je ne parlerai même pas des conséquences pour de plus petites entreprises, comme Implcit.

    Des milliards de dollars sont en jeu ! Et celui qui annonce ce report, ce n’est pas le CEO de Google, ni le vice-président advertising, non, c’est un simple directeur, comme il doit y en avoir des milliers, Vinay Goel, Privacy Engineering Director, Chrome. Oui, Chrome ! Même pas Google advertising !

    En gros, un ingénieur, parce qu’il n’arrive pas à gérer les conséquences d’une décision de 18 mois, annonce au marché qu’il lui faut deux ans de plus ! J’ose espérer qu’il n’a pas pris cette décision tout seul… D’ailleurs, dans un mouvement inverse de 2020, le cours de Criteo a pris +15% depuis jeudi !

    Google n’a pas pris la pleine mesure de son gigantesque pouvoir. Je ne vais pas leur demander de lire le rapport de la convention nationale française de 1793, mais peut-être juste de regarder Spiderman !

    Pourtant, on est tous d’accord, Chrome n’existe que pour influer sur le marché publicitaire, hein ? Donc ils savent que leurs décisions ont pour but d’impacter le marché.

    Faire faire ce type d’annonce par un simple directeur, c’est chercher à minimiser le rôle structurant de Google. Dans un contexte d’analyse par différentes autorités de la concurrence, ce n’est pas idiot. Mais personne n’est dupe !

    Ce type de décision structurante ne devrait pas être prise par Chrome, ni même par Google. Elle devrait être le résultat d’une délibération d’un organisme dont le rôle est, justement, de structurer le marché.

    C’est l’IAB qui aurait dû annoncer ce délai. C’est même l’IAB qui aurait dû décider de ce report.

    Maintenant que le mal est fait, que faut-il faire ?

    Faut-il continuer scruter les décisions de Google, et à s’adapter constamment à leur bon-vouloir ? « Ne laissons pas Google dicter le tempo et passons dès aujourd’hui au cookieless » écrit Antoine Ripoche dans le Journal du Net.

    Les entrepreneurs ont pour beaucoup une caractéristique commune : on avance droit, et on perd le moins de temps possible à regarder ce que font les concurrents. Il faut s’adapter au marché, bien-sûr. Mais passer son temps à changer ses plans, c’est à la fois épuisant et contre-productif.

    Tout le monde n’est pas entrepreneur. Mais toutes les entreprises ont le droit de piloter leur destin. Google change d’avis sur les cookies ? Ils vont peut-être encore choisir une autre option ? Un autre calendrier ?

    Et alors ? Passons-nous des cookies. On se passera ainsi de la dépendance à Google. Comme l’écrit Antoine Ripoche, « [les annonceurs] allaient faire le changement quoi qu’il arrive, autant continuer dans cette direction ».

    L’annonce de Google de 2020 a secoué le cocotier de l’adtech. De bonnes questions ont été posées. Le respect de la vie privée n’est maintenant plus négociable. Continuons dans cette voie. Anticipons l’évolution inéluctable vers de « dataless » . Pas de cookies, pas de data. Anticipons, au lieu de subir le prochain soubresaut d’un ingénieur de Chrome.

    Continuons d’inventer le monde d’après.

  • Les répétitions sont fausses ! Même (et surtout) avec des cookies !

    Les répétitions sont fausses ! Même (et surtout) avec des cookies !

    Toute mon estime pour le premier qui commente cet article avec le lien entre le thème et l’illustration !

    La répétition est un peu mon dada. Dès 2012, j’avais fait une présentation à ce sujet à l’IREP (Institut de Recherche et Etudes Publicitaires).

    La répétition est importante pour l’internaute (enfin, pour que la publicité soit efficacement imprimée dans son petit cerveau disponible).

    Elle est aussi importante pour l’acheteur, l’annonceur, qui ne veut pas sous-investir (pas assez de répétitions) ou sur-investir (trop de répétitions).
    Qu’il se rassure, aujourd’hui il fait les deux ! Il investit trop et pas assez. Mais je ne développerai pas cette triste réalité aujourd’hui, je m’attaque à une autre triste réalité, et je reviendrai une autre fois sur la notion de distribution des contacts.

    On a cru que le digital allait permettre de calculer enfin la répétition. J’ai déjà parlé du mirage du capping, mais je n’avais pas assez insisté sur un point essentiel. La répétition (et donc le capping) sont pilotés par des cookies qui, comme nous tous, sont mortels.

    Quand on parle de répétition en publicité, on se place du côté des sciences cognitives, du bêta de Morgenstern, de la mémorisation des messages, bref, du cerveau. Un cookie a-t-il un cerveau ? Non, mais l’individu en a un.

    Je viens de montrer en quoi les cookies et les individus sont deux concepts distincts. Je vais ici enfoncer le clou.

    Les cookies sont non seulement multiples à un instant t. Mais leur espérance de vie est aussi beaucoup plus courte qu’on le croit.

    Leur durée est limitée à un an par le RGPD. Mais c’est un an reconductible à chaque fois que le cookie est déposé, c’est à dire potentiellement à chaque fois qu’il est lu. Donc l’effet réglementaire n’est peut-être pas si important.

    Le cookie est supprimé à chaque fois qu’on change d’ordinateur. Ok il existe quelques fous furieux comme moi qui les recopient lorsqu’ils installent un nouvel ordi. Mais on est rares.

    Les cookies sont effacés dès que l’on quitte une session privée. Ils n’ont duré que quelques minutes, juste le temps pour que les technos publicitaires les enregistrent et les synchronisent. Pour rien.

    Ils sont supprimés automatiquement à chaque session chez tous ceux qui demandent à leur navigateur de le faire à chaque fois qu’ils le ferment.

    Bref, en plus de découper artificiellement notre vie digitale par ordinateur, navigateur et technologie publicitaire, au sein même de ces silos, les cookies sont très souvent renouvelés.

    A un bout de la chaîne, on a moi, qui n’efface jamais mes cookies, certains qui les effacent plusieurs fois par jour ! Et en moyenne, ça fait un paquet de cookies. Rien d’étonnant donc à ce que le nombre de cookies français dépasse allègrement d’un facteur 10 (sur un an) le nombre d’habitants en France !

    Or la répétition se fonde sur les cookies. Vous prenez le nombre d’impressions, vous le divisez par le nombre de cookies, et vous obtenez la « répétition ». Sauf que votre nombre de cookies est surestimé d’un facteur important, même sur la durée d’une campagne (un mois par exemple). Si chaque individu a trois cookies par mois, la répétition d’une campagne devrait être multipliée par trois !

    Avant l’internet, les répétition étaient estimées à l’aide de statistiques. On jugeait que c’était compliqué et que le digital allait améliorer tout cela. On l’a cru, au point de porter aux nues les cookies, et de négliger leurs limitations.

    Mais je prends ici le pari : les méthodes statistiques, même imparfaites, ne surestimaient pas la répétition d’un facteur trois !

  • Cookies et individus : les frères ennemis

    Cookies et individus : les frères ennemis

    Longtemps notre industrie de la publicité en ligne a idéalisé le cookie. On lui prêtait toutes les vertus, passeur d’information (cookie matching), identifiant unique (calcul de la répétition), sésame du profil (si, si je vous assure, je suis un chat !), baron du comportemental (je sais que tu veux ces chaussures rouges, je le sais !).

    Ca m’a toujours paru bizarre. Et plus encore, lorsque le cookie était vu par certains comme un individu.

    Alors que cookie et individu désignent deux concepts très éloignés l’un de l’autre.

    Étymologiquement, individu signifie individuum, « ce qui est indivisible ».

    Le cookie, lui, est divisible. Pire encore, il est divisé.

    Un cookie n’est qu’un artifice technique, dérivé du magic cookie inventé en 1979 pour désigner une donnée que l’on stocke sans la changer. On est loin de la notion d’être pensant, hein ?

    Entrons un peu dans le détail, sans passer à un discours technique. Le cookie est un fichier géré par le navigateur. Dans ce fichier, chaque domaine (ex : bidule.com) peut écrire et lire ses propres données.

    Voyons maintenant les implications de cette définition.

    « Navigateur » implique que :

    • le cookie est lié à un ordinateur. Deux ordinateurs, deux cookies.
    • le cookie est lié à un navigateur sur cet ordinateur. Deux navigateurs, deux cookies. Deux navigateurs sur deux ordinateurs, quatre cookies. Si on tient compte de la synchronisation des comptes sur Chrome, on peut estimer à la louche qu’on a trois cookies plutôt que quatre.

    « Domaine » implique que :

    • le cookie est lié exclusivement au domaine qui l’a déposé. Deux domaines, deux cookies.
    • si le domaine du cookie n’est pas celui de la page qui est chargée, le cookie n’est même pas déposé sur Safari et Firefox, et il ne le sera plus sur Chrome en 2022. L’utilisation du cookie tiers pour éviter le problème « deux domaines, deux cookies » est en train de disparaître.

    On a donc un entonnoir de silos.
    Prenons un individu que nous appellerons A. A utilise :

    • un ordinateur familial
    • un ordinateur professionnel
    • un smartphone
    • un ipad

    Sur les deux ordinateurs, il utilise Firefox.
    Premièrement parce qu’il est resté naïf et croie encore aux projets open-source, deuxièmement parce qu’il ne souhaite pas que Google sache vraiment tout de lui et troisièmement parce qu’il a ses signets, son historique et ses cookies (hé oui, certains choisissent de ne pas effacer leurs cookies).
    Mais certains sites ne fonctionnent déjà plus bien sur Firefox. Il doit donc passer parfois sur Chrome.
    Enfin, certaines applications de ses ordinateurs Apple et de son iPad ouvrent uniquement Safari.

    A a donc trois navigateurs sur chacun de ses deux ordinateurs. Ca nous fait donc six cookies par domaine.

    A navigue sur Internet pour son boulot, et pour ses besoins personnels. Il n’aime pas trop mélanger les genres et il doit parfois être connecté avec un compte Google professionnel, parfois avec un compte Google personnel. Il a donc deux profils sur son navigateur Chrome professionnel.
    On passe à sept cookies par domaine.

    Parfois, il veut faire un cadeau à sa femme (😉) et passe en navigation privée. C’est comme s’il passait sur un nouvel ordinateur à chaque fois. Disons que l’on est alors au moins huit (disons dix) cookies par domaine et par mois.

    Plaçons-nous maintenant dans le cas le PLUS favorable aux cookies. Nous sommes en 2021, et A utilise Chrome. Les cookies tiers existent encore. A reçoit donc des cookies de toutes les technologies publicitaires :

    • doubleclick, googlesyndication (Google)
    • adnxs (AppNexus, Xandr)
    • smartadserver (Smart)
    • criteo
    • taboola…

    Chacune de ces technologies est en silo, c’est à dire que ses cookies ne sont pas lisibles par les autres. On a donc une vingtaine de ces domaines publicitaires en quelques minutes de surf.

    OK, ces domaines font du cookie-matching a tour de bras. Mais

    1. encore faut-il qu’il marche. Les taux de matching sont rarement au dessus de 60%, et jamais au dessus de 85% !
    2. encore faut-il que le consentement ait été donné pour faire le matching.

    Bref, sans même forcer le trait, A se retrouve avec Au moins vingt cookies publicitaires, que l’on peut réduire à dix avec le cookie-matching. Mais attention, on parle toujours de 10 cookies PAR navigateur !

    Et on a estimé que A utilise 10 navigateurs (réels ou virtuels) par mois. On arrive donc à environ 10 x 10, soit 100 cookies publicitaires !

    OK, ce nombre peut être ramené à 50 par le jeu du matching des adresses emails encryptées.

    Un seul individu, sans être particulièrement atypique, peut donc correspondre à 50 identifiants « uniques » !

    Et ça marche aussi dans l’autre sens.

    L’ipad et l’ordinateur personnel de A sont utilisés par son conjoint et leurs deux enfants. Donc 30 de ses identifiants (trois navigateurs réels + deux navigateurs virtuels sur ordinateur + un navigateur sur iPad, pour chacune des cinq technologies publicitaires après déduplication, soit 30 combinaisons) correspondent en fait à quatre individus !

    Dans le meilleur cas, on a donc 50 identifiants publicitaires pour lesquels 20 correspondent à un même individu, et 30 à potentiellement quatre individus.
    Dans le pire cas, on n’a rien (c’est plus simple).

    Cela signifie :

    1. que quatre comportements différents peuvent être associés à tort à un même individu, sur 30 identifiants qui ne devraient pas être regroupés
    2. que 20 profils ne peuvent pas être regroupés alors qu’ils le devraient

    Placer les cookies et les individus au même plan a autant de sens que comparer Arnold Schwarzenegger et Dany De Vito.

    Et on nous dit que la disparition des cookies est une perte énorme ?

    C’est une perte énorme si on croit encore à leur pureté et à leur perfection ! Mais si on regarde ma démonstration, on comprend vite quelles précautions il faut prendre…

    Le monde publicitaire va passer du tout data au peu de data et au contextuel. La précision des solutions de ciblage va diminuer. OK, je l’admets.
    Mais elle va diminuer non pas depuis un optimum de qualité, mais depuis une situation déjà discutable. J’ai récemment entendu (sans avoir pu comprendre la source), qu’un fournisseur de data estimait sa propre qualité à 47% ! C’est à dire que sa donnée était fausse dans 53% des cas !

    Alors, abandonner un système de qualité moyenne, qui a érigé des statues à un identifiant technique, pour développer un système qui remet l’individu au centre de ses analyses, je pense qu’au final, notre industrie va y gagner !

  • De l’espoir côté capping

    De l’espoir côté capping

    Il y a un mois, un siècle dans l’adtech, j’enterrais un peu vite le capping.

    Mon argument principal était que personne, sauf les annonceurs, n’avait un intérêt économique direct à le faire survivre.
    Mais il semble que certains se préoccupent suffisamment de l’expérience utilisateur pour chercher une solution à la répétition infinie des pubs.

    Google a publié une proposition de gestion du capping.
    Cette solution se veut compatible avec les noms d’oiseaux poussés par divers acteurs de la publicité, retargeters ou géo-localisateurs. Mais à la différence des volatiles, elle ne met pas en jeu de serveur tiers de confiance. Presque tout se passe dans le navigateur, et c’est grâce à ça que la proposition a une chance d’aboutir.

    En gros, les fournisseurs d’adTech vont devoir entrer dans une logique à la header bidding. A lieu de gagner une enchère, ils vont gagner le droit de pousser une publicité à un navigateur sans savoir si elle sera finalement affichée.
    Cette publicité est associée à ses contraintes de capping, que le navigateur enregistre. Ensuite, le navigateur compare les contraintes de capping  aux répétitions qu’il a déjà enregistrées. Et il choisit une publicité qui respecte ces contraintes.

    Là où ça se complique, c’est que le navigateur se doit de respecter la confidentialité des informations qu’il enregistre. Il ne peut donc pas répondre « ok, la pub X » a gagné, car la plateforme d’adTech collecterait potentiellement trop d’informations.
    On parle donc d’un reporting agrégé, où les noms de domaines sont masqués et regroupés (someHash(thisDomain % 100, ce qui revient à remplacer le nom de domaine par un nombre et à la diviser par 100, sans virgule). 

    Il reste des zones d’ombre dans cette logique. Derrière un achat de publicité, il y a une facturation, et cette facturation doit être précise, fiable, si possible en temps réel. Je ne parle même pas de la loi Sapin (dont les développeur de Chrome n’ont jamais entendu parler). En théorie, l’annonceur doit être capable de tracer tous les achats jusqu’au site… Pas facile à rendre compatible avec les contraintes de protection de la vie privée !

    Car c’est le problème de notre industrie. Les petits malins.

    On a besoin de petits malins pour contrer les gros gloutons. Mes enfants n’ont plus l’âge, mais si vous voulez une métaphore pour parler aux vôtres des GAFA et des hackers, c’est ici : Gros Glouton et Ptit Malin

    La publicité digitale est un business de petits malins. Un petit malin est un hacker, au sens bisounours du terme : celui qui trouve une solution technique à un problème. Pas un pirate du dark web, donc. 
    Le petit malin va par exemple ajouter un pixel de tracking à ses campagnes qui ciblent les femmes. Ce pixel, en déposant un cookie, lui permet de créer un segment de cookies de femmes. La prochaine fois, plus besoin de payer de la data ! Et hop ! Bon, ce n’est pas autorisé, mais c’est tellement facile à faire, que de nombreux petits malins ont hacké le web depuis des années.

    Des dizaines de business se sont montés sur des solutions techniques, des hacks. Certains se sont fait taper sur les doigts, comme les géolocalisateurs par la CNIL, d’autres ont cartonné, comme Critéo.

    Il est donc certain que quelque soit la solution technique développée pour palier à la disparition des cookies tiers, des tonnes de petits malins se rueront pour essayer de la hacker

    Trouver une solution qui ne se fera pas pirater, et qui protègera la vie privée des internautes relève de la gageure. 
    Il reste un an pour finaliser une solution de capping qui tienne compte de ces contraintes contradictoires, et puisse résister aux petits malins.  Bon courage !

  • Politique Fictions : le monde publicitaire de demain

    Politique Fictions : le monde publicitaire de demain

    Cet article est une pure fiction (mais tellement probable) ! 

    Nous sommes en 2025.

    Les cookies tiers ont rejoint les dinosaures. IDFA a été retiré par Apple, pour forcer les éditeurs à mettre en place des abonnements sur lesquels la pomme prend 30%. Peu de sites y arrivent, et la pub reste leur seule alternative.

    Firefox n’a presque plus de part de marché depuis que des nouveaux « standards » mal documentés n’offrent plus la même expérience utilisateur que Chrome et Safari. Et le logiciel libre n’a plus les moyens de s’adapter.

    Google et Facebook paient les éditeurs pour les contenus qu’ils diffusent sur leur plateforme depuis 2020. Certains crient victoire, d’autres disent qu’on est juste passés du vol à l’obole.  Les contenus diffusés sur Youtube, eux, sont monétisés par Google, même si l’éditeur n’a pas atteint la taille critique pour entrer dans le programme de partage des revenus
    Facebook a toujours fait pareil, mais comme les pubs ne sont pas dans les contenus (au dessus ou en dessous) ça ne se voyait pas. 

    Instant Articles et AMP sont devenus la norme. Presque plus personne ne consulte plus les sites web en direct.

    De toutes façons, sans cookies ni identifiants pérennes, la plupart des sites n’arrivent plus à personnaliser les contenus. Ils n’ont pour la plupart pas la capacité technique de développer leurs propres outils avec des « first party cookies ». Les alternatives comme l’utilisation d’emails hashés et de délégation de domaine sont impitoyablement traqués par Apple et Android. L’alibi de la protection de la vie privé a été validé par de nombreux tribunaux et interdisant toute solution de remplacement.

    Pour les sites de base, les petits journaux notamment, la situation ressemble aux années 2000, la croissance en moins.
    Pas de solution technique de personnalisation, pas de ciblage publicitaire. Des CPM à 10 centimes les bons jours. Si on veut payer des journalistes (avec une formation de marketing pour attirer les clics par des titres racoleurs), il faut multiplier les emplacements publicitaires. 10, 20 parfois, 30 pubs par page, pas de capping, et de l’auto refresh toutes les 30 secondes pour faire du volume… Bonjour l’expérience utilisateur…

    Les gros, eux, ont dû s’adapter. En cette année 2025, Le Monde compte plus d’ingénieurs que de journalistes. Ce média fait partie des rares qui ont pu internaliser leur technologie de personnalisation et de monétisation. Au prix fort.

    Mais, comme tous les autres, les grands journaux voient l’essentiel de leur audience diffusée via Google AMP et Facebook Instant Articles. Les règles n’ont pas changé depuis 2020 : 100% si vous monétisez vous même, 70% si Facebook ou Google place ses pubs. 
    Jusqu’en 2020, ça passait encore : bien équipé avec des technos third party, il valait mieux gagner 100% de 1 € de CPM que 70% de 1,1 €. 
    Mais depuis que les technos tierces ont disparu en 2021, Facebook et Google ont bénéficié d’un énorme coup de pouce grâce à leurs cookies first party. Cerise sur le gâteau, ils sont devenus les seuls capables de mesurer leurs propres performances. Juges et parties, leurs CPM ont explosé.

    Désormais, 70% de 2 € rapporte plus aux sites que 100% de 1 € pour les meilleurs, ou de 10 centimes pour tous les autres… De nombreux sites  ont renoncé par eux-mêmes à développer leur audience propre (hors AMP et Instant Articles) et à la monétiser sans Facebook ou Google.

    Google et Facebook sont devenus les seuls tuyaux de diffusion et de monétisation. Le web en tant que tel n’existe plus qu’à la marge. Le contrôle est total.

    La valorisation de Facebook et Google atteint 10 000 milliards de dollars. Plus personne, même aucun état, ne peut s’opposer à leur pouvoir. 
    Ils financent 100% des journalistes, et le revendiquent, se parant d’une nouvelle utilité sociale, auparavant ternie par les fake news.

    Les journaux, financièrement dépendants, sont simplement maintenus en vie. Sous perfusion.
    Un sous-traitant qui meure, c’est du boulot (il faut le remplacer). Un sous-traitant qui survit, c’est tout bénef. On lui impose les règles que l’on veut, et il n’a pas d’alternative.

    Je publie ce billet dans mon blog. Je n’ai pas adhéré à AMP et Instant Articles et je ne le ferai. Ce texte ne sera pas relayé sur les plateformes.

    Personne ne le lira.

    «  Le monde sera Tlön. Je ne m’en soucie guère, je continue à revoir, pendant les jours tranquilles de l’hôtel d’Adrogué, une indécise traduction quévédienne (que je ne pense pas donner à l’impression) de l’Urn Burial de Browne. » 

    Jorge Luis Borges, Tlön Uqbar orbis tertius, in Fictions
  • Le mirage du capping

    Le mirage du capping

    Le capping, la capacité de plafonner le nombre de publicités, va disparaître avec l’eau du bain des cookies tiers

    Enfin, il va disparaître pour les internautes qui ne seront pas identifiés nominativement par leur email ou leur numéro de téléphone…  
    Pour ces derniers, le marché s’enflamme : « avec l’identification forte (email hashé par exemple), on aura une gestion de la répétition encore meilleure qu’aujourd’hui avec les cookies ! »
    Oula, oula, on se calme ! 

    1. Quelle proportion des internautes seront identifiés ?
    2. Ceux qui s’identifieront ne le feront pas sur tous les sites.

    Supposons que 20% des internautes s’identifient sur la moitié des sites qu’ils visitent (je suis volontairement optimiste). En dehors des grands carrefours d’audience, y aura-t-il plus de 10% des contacts publicitaires (les volumes d’impressions) qui seront accessibles par un id robuste ?

    Mais parlons plutôt de ce qui se passe aujourd’hui.

    Je l’ai dit plusieurs fois, la capacité du digital à gérer la répétition est l’un des différenciants les plus importants via-à-vis des autres média. 

    En 2012, j’avais même consacré une conférence à l’IREP (Institut de Recherche et d’Etudes sur la Publicité) sur le brand boosting (l’expression est de moi), ou la ré-exposition publicitaire pour atteindre un optimum de répétition.

    Je trouve donc que la publicité digitale va beaucoup perdre sans les cookies. Et comme je l’ai déjà dit, autant les AdTech sont motivés pour trouver des alternatives aux cookies pour cibler les internautes. Autant elles risquent de ne pas lever le petit doigt pour sauver le soldat capping.

    Pourquoi ? 

    Côté éditeur, le capping est surtout vu comme une possibilité de limiter la diffusion de publicités. Donc, sans preuve tangibles, de limiter le chiffre d’affaires généré par la publicité. 

    Côté AdTech, même combat. Le capping oblige à faire des calculs (simples) mais lourds, fréquemment. Tout ça pour décider de ne pas acheter !

    Côté agences, le capping fait bien sur les recommandations stratégiques. Mais techniquement, c’est une autre affaire.

    Côté annonceurs, on aimerait avoir du capping.  Mais comme ils n’ont pas de capping dans les autres média, fatalistes, ils savent qu’on peut s’en passer.

    Pourtant depuis des décennies, il est prouvé qu’il existe un optimum d’exposition publicitaire, au delà duquel toute nouvelle impression rapporte moins qu’elle ne coûte.  D’ailleurs, c’est très simple à démontrer. 

    Prenez n’importe quel indicateur de performance : clic, mémorisation, visite…  Sa performance  marginale (ce que gagne avec une répétition supplémentaire) décroit. C’est intuitif : il faut bien que ça plafonne un jour, sinon les dépenses marketing seraient infinies. 

    Les graphiques suivants sont fictifs, mais ils illustrent des situations bien réelles. Supposons qu’un Euro investi en publicité en rapporte 2,5, ce qui est déjà très généreux. Le premier graphique montre la forme générale de l’efficacité publicitaire. Elle plafonne à 100 € gagnés pour 40 € dépensés.  Les coûts, eux, sont linéaires : chaque répétition publicitaire coûte le même prix que la précédente.

    Regardons maintenant le ration Efficacité / coût. Dans notre exemple, il passe par un maximum entre 3 et 4 répétitions. Pire, si on regarde la marge (la différence entre les dépenses publicitaires et ce que l’on gagne), on constate (dans notre exemple fictif), que l’on perd (gain négatif) de l’argent après 10 répétitions !

    Le capping est donc un élément fondamental de la stratégie marketing des annonceurs. Il leur permet de décider de ne pas investir. C’est justement ce qui gène les autres acteurs. Ne pas investir est le pire qui puisse leur arriver.

    Mais à la décharge des agences, le capping est techniquement difficile à gérer.

     /* Aparté technique */ 
     Le capping est géré par des cookies déposés par un serveur de publicité.  Il faut que ce soit celui qui décide de mettre telle ou telle publicité qui gère le cookie. 
    Chaque impression servie à un id (stocké dans un cookie) est horodatée. Il est ainsi possible de savoir combien d’impressions ont été servies à un id. 
    Lorsqu’une impression doit être servie, on regarde si la campagne demande du capping et si l'id à servir respecte la règle de capping demandée (x pubs au total, y pubs dans les dernières 24h par exemple).
    Si oui, on sert la pub, si non, on cherche une autre campagne à servir pour cet id.
     /* Fin d’aparté technique */ 

    Comme je l’ai dit, le capping limite la capacité d’un éditeur à monétiser au mieux ses pages. Il peut donc arriver, mais promis ils ne le font pas exprès, que le capping soit oublié dans l’adserver principal d’un site.

    De plus, comme je l’expliquais dans l’aparté, le capping est géré par une plateforme publicitaire décisionnaire sur le choix de la campagne à servir.  Ce peut donc être :

    • Un adserveur de régie
    • Un DSP

    Mais pas :

    • Un SSP
    • Un adserveur agence

    Ce dernier arrive en bout de chaîne, et représente souvent la seule technologie unifiée d’une campagne. Mais c’est trop tard, lorsqu’il est appelé, toute la mécanique de l’achat a déjà eu lieu. Impossible donc de ne pas servir la campagne, sauf à gâcher une impression.

    Que se passe-t-il donc dans le cas général d’une campagne internet ? Une campagne met souvent en jeu :

    • différents formats (display, vidéo, native)
    • Quelques incontournables (Google, Facebook, Amazon…)
    • Quelques régies en direct (disons trois)
    • Un ou deux DSP

    L’annonceur demande un capping à 5, qui est bien entendu demandé à tous les fournisseurs. Dans mon exemple, cela donne 3 + 3 + 3 + 2 = 11 plateformes différentes !

    Si chaque plateforme respecte bien le capping (et on a vu que ce n’est pas toujours le cas), on obtient, dans le pire cas, 5 impressions par plateforme, donc 55 impressions pour un individu !

    Autrement dit, pas de capping ! OK, c’est toujours mieux que 100, mais c’est loin de la promesse du digital !

    Et demain, lorsque les cookies sur lesquels se fonde le capping auront disparu, que se passera-t-il ?

    Si on a 3 fournisseurs d’id robustes (à partir de hash d’emails), en dehors des GAFA, on se retrouvera toujours avec 3 GAFA + 3 fournisseurs d’id, soit 6 plateformes qui gèreront le capping indépendamment des autres.  Et ceux qui ne seront pas identifiés ? J’y reviendrai dans un autre article.

    Le capping, ce parent pauvre de l’adtech, a donc toujours pâti d’un manque d’innovation, car il ne motive personne d’autre que les annonceurs.

    Ce que l’industrie publicitaire digitale va perdre avec les cookies tiers, ce n’est pas le capping, c’est le mirage du capping. 
    C’est donc un superbe argument marketing, plus qu’une réalité business, qui ne survivra pas aux cookies tiers.

    Mirage sur Uyunni au lever du soleil
  • Jungle ouverte ou jungle fermée ?

    Jungle ouverte ou jungle fermée ?

    Pourquoi les sites ont-ils des pixels à foison ?
    Pour placer des cookies dans votre navigateur.

    Quelles en sont les conséquences ? Des pages qui se chargent plus lentement, des fuites de données, et des cookies pas toujours acceptés. C’est contre tous ces problèmes que Google lance le tagage server-side. Des pages plus rapides, un meilleur contrôle des données, et pas de cookies tiers. De toutes façons, Google programme leur disparition pour 2021.
    Si vous voulez creuser, lisez l’article de l’excellent Nicolas Jaimes dans le JDN.

    Un vrai progrès, donc !
    Un vrai progrès si on accepte qu’un acteur, Google, contrôle encore plus l’écosystème de la publicité. 

    Tous les fondateurs de start-up le savent : s’intégrer dans les outils de Google, c’est un graal, l’ouverture à la grande majorité du marché. Mais comme tout graal, la quête est longue. Non seulement il faut être gros, mais il faut aussi se plier aux exigences du géant, qui de toutes façon aura le dernier mot.

    D’un autre côté, les tags, c’est la jungle. N’importe qui peut écrire un tag, un site peut facilement l’intégrer sans développement. Et le tag peut appeler d’autres tags, à l’infini. La jungle, je vous dis !


    Les tags permettent donc à des systèmes de petites boites, comme Alenty en son temps, de se développer sans embêter personne, en restant sous le radar des gros.

    Les petites start-ups vont-elles toujours pouvoir profiter de cet écosystème ouvert ?
    Les tags ne vont pas disparaître, et le server-side ne sera pas obligatoire. Mais la tentation sera grande de se remettre dans les mains de Google, et de débarrasser ses pages des multiples scripts.

    Mais les tags ont un énorme avantage que le server-side n’a pas : on peut les tracer.

    Un tag est client-side. C’est à dire que tout se passe dans le navigateur de l’internaute. N’importe qui peut activer le mode développeur de son navigateur et voir tous les appels générés par ces tags.  La CNIL, et des sociétés spécialisées développent assez facilement des outils qui vont analyser les appels (scripts, pixels), les cookies associés. 
    Contre-intuitivement, le système ouvert des tags s’avère plus transparent. La jungle plus ouverte que le pré carré ? 

    /* Début d’aparté littéraire */
    Pré carré est l’expression française que j’aimerais voir remplacer le « walled garden », car le sens est le même. «  L’expression remonte au Moyen Age : elle est utilisée en France pour désigner le domaine d’un propriétaire ou le territoire d’un seigneur » (source Wikipedia).
    Et ce serait beaucoup plus joli, non ?
    /* Fin d’aparté littéraire */

    Comment savoir avec qui un serveur est interconnecté ? Seul le gestionnaire du serveur peut le dire. Et vous noterez que je ne cite plus Google. Car d’autres viendront proposer ces services. Et autant on peut considérer que Google ne fera rien d’illégal, quid des autres ? 

    De plus, les échanges de données server-side (comme ceux client-side) ne se limitent pas à une étape.
    Si A appelle B, B peut aussi appeler C. Si A est digne de confiance, B peut l’être un peu moins, et C pas du tout !

    Sans cookie, le tag n’est plus obligatoire. La jungle du server-side risque de remplacer celle du client-side
    Une jungle ouverte risque de devenir une autre jungle, fermée, cachée derrière un grand mur infranchissable.