Étiquette : études

  • Comprendre et optimiser ?

    Comprendre et optimiser ?

    Dans le monde, il y a deux types de personnes : ceux qui pensent que le monde se divise en deux catégories, et les autres…

    Plus sérieusement, dans le monde de la publicité, comme dans tant d’autres (la sociologie, la finance…), on a d’un côté ceux qui cherchent à comprendre et ceux qui sont dans l’action.

    Les premiers font ce qu’on appelle des études. Ils collectent des données, cherchent les fondements théoriques de l’efficacité publicitaire, des révoltes sociales, ou des effets de meute en finance.

    Les seconds agissent, ils ont des objectifs d’efficacité. Ils optimisent des campagnes, font des discours politiques, ou prennent des positions sur les marchés.

    On pourrait croire que ces deux groupes travaillent main dans la main. Que les agissants se nourrissent des études des observateurs. Mais ce n’est que partiellement vrai. 

    D’un côté, les études ont une temporalité longue. Pour prendre du recul on doit souvent aussi prendre son temps. Les conclusions sont donc souvent fournies après la bataille. 

    L’action, elle, est immédiate. On doit réagir dans l’instant, mesurer les clics, sentir la foule frémir, ou détecter avant les autres un signal faible du marché. 

    Les actions bénéficient donc des études mais en différé, et seulement partiellement. Il est difficile d’extraire d’une étude ce qui comptera vraiment pour agir. De même, il est difficile d’étudier ce qui servira dans l’action, et non ce qui semble le plus intéressant au chercheur.

    Inversement, les remontées des performances réellement obtenues permettent aux études d’améliorer leur connaissance, de synthétiser les raisons, et de mieux préparer le coup d’après. En théorie.

    Souvent donc les études et l’action restent décorrélées. Et la valeur perçue bascule nettement du côté de l’action.

    Dans de nombreux secteurs, on dépense en étude entre 1% et 3% du budget total. Pour vérifier qu’on ne flambe pas son budget pour rien, on met en place des contrôles (c’est juste du bon sens).
    Pas évident à quantifier pour la sociologie (je ne suis pas spécialiste), mais c’est assurément vrai pour la publicité (1% à 3% pour les études, la mesure, contre 10% à 30% pour l’action). Et en finance, j’ai le sentiment que les ordres de grandeur sont les mêmes (il n’y a qu’à voir les salaires des traders comparés à ceux des analystes).

    On le voit dans ce secteur publicitaire que je pratique depuis 25 ans : les études et les achats travaillent souvent peu ensemble. Un trader media m’a un jour expliqué qu’il prenait la recommandation du son service études (la stratégie de l’annonceur pour paramétrer une campagne), et (il joignait le geste à la parole) la jetait à la corbeille ! Il savait que la stratégie était fondée sur des statistiques, et que lui achèterait des data. Il demandait simplement sur quel critère il serait, lui, jugé. Tu veux du clic ? Tu auras du clic !

    Cette déconnexion entre les études et les achats pose plusieurs problèmes :

    • Un manque de cohérence pour l’annonceur entre sa stratégie et sa réalisation
    • Une frustration des équipes études et achats qui d’un côté voient parfois leur travail (études) peu reconnu et de l’autre les acheteurs ne voient que peu l’intérêt des efforts de leurs collègues.

    C’est un peu caricatural, mais je me base sur des réflexions réelles que j’ai croisées…

    Dans la publicité, les gros acteurs sont souvent qualifiés de walledgardens. Ils fournissent tous les ingrédients de la publicité : l’espace publicitaire, les données, la mesure, les outils d’optimisation. 

    Très souvent optimisation rime avec boite noire. Qu’importe le flacon pourvu qu’on ait l’ivresse ? Qu’importe pourquoi ça marche pourvu que ça marche ?

    On ne connaît pas bien la première partie de cette citation, plus grivoise qu’alcoolique !

    On invoquera alors la complexité des algorithmes d’optimisation. Comment synthétiser des milliers de lignes d’arbres de décision générés automatiquement sur des bases mathématiques complexes ? 

    Pire encore, l’IA apporte une excuse supplémentaire à l’absence de retour d’expérience. « Vous savez, un réseau de neurones, c’est comme le cerveau humain, on ne sait pas ce qui s’y passe ». 

    Elle a bon dos la techno !

    Il y a aussi de bonnes raisons à ne pas partager tous les enseignements recueillis. Le pouvoir est dans l’information. Si l’annonceur ou l’agence connaissait tous les leviers de performance, elle (je teste l’accord avec le genre le plus proche) valoriserait moins l’outil d’optimisation pour la prochaine campagne.

    Des informations sont bien fournies, mais parcellaires, souvent techniques. Comment expliquer pourquoi il est plus efficace de payer 1,23 € de CPM à 22h contre 1,17 à 20h ? Ou pourquoi le cookie 1234abcd vaut plus cher que le cookie 5678efgh ?

    Synthétiser ces résultats de manière compréhensible par des humains est une tâche difficile.

    L’approche par panel qu’Implcit a développée présente l’avantage de travailler sur des données comportementales d’un panel de volontaires. Les informations collectées sont donc humainement appréhendables : profil socio-démographique, visites de sites, centres d’intérêt…. 

    Ces informations servent à la fois au ciblage, reporting et à l’optimisation des campagnes. On est donc capables de dire : 

    • On cible les femmes qui sont intéressées par l’écologie (stratégie de l’annonceur)
    • On a exposé des femmes à 90%, avec une affinité de 350 sur l’écologie
    • On constate que d’autres critères apportent un surcroît de performances : la visite des sites A, B et C, et des critères d’âges par exemple.

    La beauté de ce système est qu’il repose sur des concepts marketing, et non techniques (même s’il y a beaucoup de technologie derrière). 

    La stratégie (faite par l’annonceur), sa mise en pratique lors de l’activation (par Implcit) avec exactement les mêmes critères, le reporting (la dimension études), et l’optimisation, tout se fait avec les mêmes informations. 

    Le pont entre les panels et les achats n’est pas seulement une méthode pour chercher de l’efficacité dans un monde sans data utilisateurs. C’est aussi l’assurance d’une cohérence entre toutes ces étapes, un partage harmonieux des informations avec l’annonceur, une amélioration de la connaissance du client, et des performances optimisées.

  • Thémis, déesse des études ?

    Thémis, déesse des études ?

    Quand on a créé Alenty avec Nico en 2007, on venait déjà du monde des études (NetValue, rachetée par Nielsen//NetRatings).

    Je venais de terminer un MBA, mes connaissances en analyse stratégique étaient encore toutes fraîches.
    J’avais donc en tête les KSF (Key Success Factors, facteurs-clé de succès) du secteur des études.

    Nous étions en train d’inventer une nouvelle industrie, la mesure de la visibilité publicitaire.
    Personne avant nous n’avait ne serait-ce que pensé que l’on pouvait mesurer la visibilité des publicités sur Internet.
    Aucun modèle économique n’existait, il fallait tout inventer.

    Alors, dès notre première embauche, lorsque je formais nos jeunes ingénieurs à leur nouveau métier, j’insistais lourdement sur l’un de ces facteurs-clé : la qualité.
    Et pour commencer, il nous fallait créer de la confiance dans cette nouvelle mesure. Je disais : « on va mettre des années à créer de la confiance, mais on peut la perdre en 24h ».

    On a donc constamment cherché à améliorer notre mesure, même après l’acquisition par AppNexus en 2014.

    Lorsque la concurrence est arrivée, vers 2009-2010, les comparaisons sont venues avec.
    La principale différence venait de l’univers mesuré. Partis les premiers, nous avions une longueur d’avance et pouvions mesurer plus de cas (iframes cross domain sur Chrome, publicité mobile…). Nos concurrents les considéraient « unmeasurable ».
    Puis, une fois rapportés à des univers comparables, on pouvait analyser l’indicateur phrare : le taux de visibilité.

    Les différences étaient très limitées avec nos concurrents qui avaient suffisamment investi en R&D.
    Et là, dans la grande majorité des cas, Alenty présentait un taux de visibilité légèrement inférieur aux autres.

    Pourquoi ?
    Parce que nos ingénieurs avaient bien retenu la leçon : la qualité de la mesure était une priorité. Dès qu’ils découvraient un cas de non visibilité (utilisation de css, empilement d’objets…), ils cherchaient une solution pour le détecter.

    Et parfois, cette obsession de la qualité pouvait nous jouer des tours. Certains sites se montraient mécontents de nos résultats, car une visibilité plus faible ne faisait pas leurs affaires. On pourrait penser qu’en face, côté agence, notre orthodoxie de la qualité aurait été mieux accueillie. Mais pas toujours ! Certaines agences s’engageaient sur des taux de visibilité qu’elles avaient du mal à atteindre. Et préféraient une mesure plus « gentille ».

    Fallait-il pour autant réduire nos efforts de R&D, et baisser la qualité de notre mesure pour aller dans le sens de nos clients ?

    Je m’y suis toujours refusé. Et cette qualité a été largement reconnue lors de l’acquisition par AppNexus.

    Les dirigeants de Facebook ont-ils eu ce type de conversation ?

    Les récents documents publiés dans le cadre d’un procès semblent le démontrer. Facebook savait que les audiences prévues étaient surestimées. Les faux comptes, les comptes fantômes (connus) et dupliqués étaient utilisés dans les estimations de volumes.
    Mais Facebook n’est pas une société d’études. Et ses facteurs-clé de succès ne privilégient pas la qualité de la mesure.

    Ce n’est pas la première fois que Facebook se fait prendre la main dans le sac. Un précédent scandale avait porté sur la durée des vidéos, surestimée de 60 à 80% !
    A chaque fois, deux problèmes ont été remontés :

    • comment se fait-il qu’on laisse Facebook être juge et partie ?
    • pourquoi les conséquences sont-elles si faibles ?

    Lorsqu’AppNexus a intégré la visibilité dans sa place de marché, on aurait pu dire que l’on devenait juge et partie. Mais non :

    • AppNexus ne possède pas l’inventaire, donc n’avait pas intérêt à surévaluer la visibilité. Au contraire, AppNexus prenait un risque en achetant des espaces qui ne seraient payés que si les publicités étaient visibles.
    • AppNexus autorise tous les autres mesureurs de visibilité à vérifier ses propres mesures. Facebook (et Google) non.

    Ces géants sont-ils trop gros pour être mesurés par des tiers ? Non. Les capacités des serveurs autorisent maintenant des volumes inimaginables il y a seulement quelques années. Les mesureurs peuvent mesurer les GAFA.

    La vie privée des utilisateurs de Facebook serait-elle en danger ? C’est l’excuse facile, brandie dès que l’on veut fermer toutes les portes de ces walled gardens.
    Là encore, non. La mesure (visibilité, audience, complétion) se moque éperdument de l’identité de ceux qu’elle analyse.

    Une mesure indépendante serait donc possible.

    Sauf qu’un tiers mesureur, s’il avait fait un MBA, aurait érigé la qualité au rang de vertu cardinale. Et il aurait immédiatement corrigé l’erreur d’estimation de l’audience, ou de la durée des vidéos.

    Et Facebook aurait perdu 5%, 10% 15% (?) de chiffre d’affaires.

    Ce n’est pas le choix qui a été fait. Facebook a semble-t-il préféré attendre jusqu’à ce que le pot-aux-roses soit découvert.

    Tout autre société aurait perdu de grosses plumes dans une telle situation. Beaucoup même auraient coulé !
    Mais lorsqu’on est incontournable, too big to fail, on peut se permettre de dire « oops, pardon, je m’ai trompé ! » et faire un petit cadeau en dédommagement.

    Et la qualité de la mesure n’a pas besoin d’être un facteur-clé de succès de son département « mesure ».

    Thémis, la déesse de la justice, brandit une balance, symbole de la qualité de ses jugements. Elle a les yeux bandés, pour ne pas voir qui elle juge, symbole de son indépendance. Et si on en faisait aussi la déesse des études ?

    Thémis, déesse de la justice. Et des études ?