Étiquette : panels

  • Le sens du sacrifice des panélistes

    Le sens du sacrifice des panélistes

    Dans le monde d’après (les cookies tiers, pas la fin du monde), la majorité des internautes ne partagera plus ses données personnelles et de navigation.

    Ils seront protégés par la loi qui impose déjà le recueil de leur consentement, et par leurs navigateurs, qui bloqueront tous les cookies tiers.

    Bref, les internautes pourront se dire qu’ils ne sont plus trackés sans leur consentement. Leur légitime paranoïa publicitaire diminuera peut-être. Internet sera un lieu plus apaisé. Si les acteurs de la publicité en ligne ne reproduisent pas les mêmes erreurs, mais c’est un autre sujet…

    Cette insouciance sera peut-être permise par le « sacrifice » de certains.

    Si par défaut on ne peut pas mesurer le comportement des internautes, on a quand-même besoin d’information. Sans information, pas de décision éclairée. Sans information, pas de ciblage. Sans ciblage, pas de publicité. Sans publicité, presque plus aucun service internet, presque plus aucune information.

    Alors, disposer d’un échantillon d’internautes dont le comportement est connu peut s’avérer clé pour le marché de la publicité digitale.

    D’un certain point de vue, ces internautes sacrifient la protection de leur vie privée pour que tous les autres la protègent.

    En sont-ils conscients ?
    Les panels comme ceux de Médiamétrie sont recrutés avec un contrat clair : leur comportement est mesuré anonymement, et les données servent à toute l’industrie.

    Savent-ils qu’ils sont mesurés ?
    Lorsqu’on vous demande d’installer un logiciel « meter » sur votre ordinateur, votre mobile et votre tablette, vous faites un acte volontaire, consciemment. Rien de comparable donc au tracking par cookies qui se fait dans votre dos, ni au cookie-matching qui permet l’échange de vos données entre différents fournisseurs, voire entre différents appareils.

    Cette conscience impacte-t-elle leur comportement ?
    Lorsque NetValue a créé le premier panel d’audience en France en 1998, Nico (cofondateur d’Alenty et d’Implcit) et moi étions déjà là. Je me souviens avoir passé des heures et des heures à analyser la base de données du panel. En plus des statistiques agrégées que l’on produisait, j’avais accès aux données individuelles.
    Je n’avais aucune information personnelle évidemment, ça ne m’intéressait pas.

    Non, ce qui est passionnant avec un panel, c’est qu’on voit l’activité réelle des panélistes. On peut suivre leur navigation. On se demande comment ils passent si vite du coq à l’âne. On voit les tendances apparaître, des sites nouveaux trouver leur audience, des comportements improbables émerger.

    Et à en juger par la proportion de sites « pour adultes » que l’on voit dans les données des panels, je peux vous assurer que les panélistes ne modifient pas leur comportement parce qu’ils appartiennent à un panel.

    En fait il faut trouver le bon équilibre entre « je sais que je suis mesuré » (et je donne donc un véritable consentement éclairé) et « j’oublie que je suis mesuré » (et je ne change donc rien à mon comportement).

    Cette subtile alchimie met aussi en jeu un sentiment d’utilité.

    Je n’ai jamais été chargé de recruter le panel, mais j’ai participé à de nombreuses réunions à ce sujet. Permettre à des milliards d’Euros d’être dépensés en publicité (c’est le cas pour les panels télé), donne à certains panélistes un sentiment de fierté.

    J’imagine que c’est aussi un argument pour ceux qui testent des médicaments (la rémunération aussi, ne soyons pas naïfs)…

    A cette source de motivation, on peut ajouter maintenant un certain sens du sacrifice. OK, ils ne sauvent pas des vies, ne donnent pas leur sang, n’aident pas les SDF.
    Mais ils acceptent que leurs données soient mesurées pour justement, que celles des autres ne le soient pas.
    Partager toutes les données sur son comportement digital, c’est utile pour la société.

    Donc à tous les panélistes qui sacrifient la protection de leur vie privée, pour protéger la nôtre, merci !

  • Chronos dévore ses enfants, mais pas tous à la même vitesse…

    Chronos dévore ses enfants, mais pas tous à la même vitesse…

    La notion du temps ne touche pas seulement les humains autour de la cinquantaine. Elle touche aussi les data et les données utilisées pour la publicité.

    Toute information possède une valeur, et cette valeur décroît avec le temps.

    Dans le monde de la publicité, les data utilisateurs ont longtemps joué un rôle important (elles restent aujourd’hui majoritairement utilisées).
    Au fil des années, la gestion de la durée de vie de ces data s’est affinée. Alors que le marché de la data utilisateurs offre une prime au plus gros, la tentation était grande de converser les data sans date de péremption. Mais les acheteurs ont imposé que chaque type de data soit associé à une durée de validité spécifique :

    • plusieurs mois pour des informations socio-démographiques (on change rarement de sexe, et d’âge une fois par an en moyenne, sauf certains cas : « C’est entre trente et trente et un ans que les femmes vivent les dix meilleures années de leur vie », Sacha Guitry)
    • quelques mois pour l’achat de voiture, ou d’appartement
    • quelques semaines pour des intentions d’achats, déménagement, etc.

    La logique est simple, on suppose qu’après un certain temps, l’internaute qui doit acheter une voiture l’a finalement achetée, et n’est donc plus intentionniste.

    Qu’en est-il alors des panels ?

    Les panels permettent d’analyser le comportement d’un échantillon d’une population. De cette analyse on tire des enseignements sous forme de statistiques. Par exemple, x% des personnes qui ont eu l’intention de déménager visitent un site d’assurance. On n’utilise pas ces informations sur les membres du panel. On les utilise sur d’autres individus, dont on suppose qu’ils ont à peu près le même comportement.

    La durée de validité de ces informations dépasse la durée d’usage des internautes. Quand bien même un individu arrêtera de regarder des sites d’assurance au bout d’un mois, la statistique restera peu ou prou valide pendant des mois, voire des années.

    Il n’y a donc aucun problème à utiliser des données de panels qui datent de plusieurs mois, voire plusieurs années.

    Les data évoluent à la vitesse des individus. Les statistiques, à la vitesse de la société.

    De plus, il y a parfois des périodicités de marché. Dans ce cas, il vaut mieux analyser ce qui s’est passé un an auparavant que le mois dernier.

    Par exemple, Black Friday génère des comportement inhabituels. La cible des acheteurs de Black Friday n’est pas la même que celle des acheteurs en ligne habituels. Ce sont plus des chercheurs de bons plans, donc avec des revenus inférieurs, etc.

    En conclusion, Chronos, le temps, dévore ses enfants. Mais parfois il prend son temps !

    Ce tableau de Goya m’a toujours effrayé quand j’étais petit. Encore maintenant…
  • Panels vs data : la taille compte-t-elle ?

    Panels vs data : la taille compte-t-elle ?

    Sixième et dernier article qui compare les panels et les data. Jusqu’à ce que je trouve d’autres idées…

    La taille des panels constitue leur principale limitation. A l’inverse, les data se caractérisent par des volumes importants qui offrent des possibilités infinies.

    Bigger is better?

    Source Wikipedia

    Même si la taille n’est pas tout, comme le montrent le destin des dinosaures, et l’histoire de Gallup et des sondages politiques (dont j’ai précédemment parlé).
    La qualité importe aussi. Et la conséquence de cette qualité, c’est le coût. Et ce coût limite le recrutement des panélistes. Donc la taille. Ce cercle vicieux impose un équilibre instable au business des panels.

    Pire encore, les taux d’attrition des panels sont importants. Les panélistes mesurés (à la différence des access panels qui sont interrogés) doivent installer un logiciel (pour Internet), ou un boitier (pour la télévision). Et là, toutes les raisons sont bonnes pour quitter le panel :

    • on change d’ordinateur, on ne réinstalle pas le logiciel
    • on a un problème sur l’ordinateur, on désinstalle tout ce qui n’est pas indispensable
    • on en a marre tout simplement, on quitte le panel

    Bref, garder un panel constant requiert d’énormes efforts, à la fois technologiques, et à bichonner ses panélistes.

    Le même type de problème existe aussi pour les data.

    Les recueillir coûte cher, les renouveler aussi. Il faut souvent payer les fournisseurs, ou partager les revenus que l’on génère avec ces data.

    Malgré ces contraintes, les data se comptent en millions, alors que les panels se comptent en dizaines de milliers. Avec les data, on peut cibler des comportements très pointus, comme la mise en panier d’un article particulier (Criteo), ou la visite d’une rubrique du site de l’annonceur, ou l’appartenance à un segment de clients de l’annonceur (CRM).

    La plupart de ces comportements ne sont pas ciblables avec des panels.

    Mais les data se heurtent aussi à un problème qui influe sur leur taille utile. Avec les data, on cible des individus (enfin,des appareils) qui ont eu un comportement donné. Le temps joue contre nous dans ce cas. La data se périme très vite.

    Par exemple, tout le monde sait que le retargeting perd de son efficacité en quelques minutes. Les taux de clic décroissent très vite, c’est pour ça que les retargeters négocient avec les sites un droit de first look (être appelés les premiers).

    Les intentionnistes (voiture, déménagement…) sont sur des projets de plus long terme. Les data qui leur sont associées ont une durée de vite supérieure (de quelques semaines à quelques mois).

    Quoi qu’il en soit, les data réellement utilisables à un instant t ne représentent qu’une fraction des data collectées dans le passé.

    Les panels se périment aussi, mais la situation est différente. On ne cherche pas à toucher un panéliste qui a eu un comportement, mais à créer des modèles qui permettront de toucher ceux qui ont eu le même comportement.

    Par exemple, quelqu’un qui veut changer de voiture va visiter des sites de comparateurs ou de petites annonces. Et même si cette info (je n’ai pas dit « data ») date de plusieurs mois, le comportement va rester plus ou moins le même.

    Les panels évoluent à la vitesse de la société, pas à la vitesse des individus.

    Il est donc possible de créer des modèles d’analyse des panels qui intègrent des données passées. Ainsi, des comportements plus fins peuvent être pris en compte. Un peu comme si on disposait d’un panel de taille plus importante.

    En conclusion, les panels ne permettront jamais de réaliser le même micro-ciblage que réalisent les data. Mais, comme le micro-ciblage est honni de tous, je ne vais pas me plaindre de sa disparition !

  • Data, panels et consentement

    Data, panels et consentement

    La crise de la data n’est pas seulement liée à l’arrêt des cookies tiers sur Chrome en 2022. Elle correspond à un besoin beaucoup plus profond de la population de ne pas être suivi.

    Ok, certains s’en foutent, et partagent allègrement leur vie privée sur les réseaux sociaux. Mais je parie mon petit orteil gauche que la plupart d’entre eux, ne se montreraient pas emballés si on leur posait la question générale « acceptez-vous que les données de votre vie privée soient utilisées par des entreprises qui vont vous exposer à des publicités ciblées ? »

    Bref, il y a un gros problème de consentement, dont les cookies ne sont que le coupable technologique idéal.

    Vers quel monde des médias nous dirigeons-nous ?

    Un mode bipolaire dans lequel une minorité des contacts publicitaires sera extrêmement bien tracée, et une majorité de contacts partiellement identifiée ou pas du tout.

    Quand j’écris « extrêmement bien tracée », je fais référence au fait que ces internautes seront suivis par leur adresse email, et non grâce à un identifiant anonyme enregistré dans un cookie. Côté amélioration de la protection de la vie privée on a vu mieux ! Mais bref…

    Le consentement qui a mené à donner son email est-il vraiment éclairé ? Les internautes auront-ils conscience de ce qui adviendra à leurs données ? Plus ou moins, selon les cas.

    Je parie mon deuxième orteil qu’on entendra encore longtemps parler de data collectées sans consentement !

    Que se passe-t-il dans un panel ? Par définition un panel est un échantillon d’individus qui acceptent de participer à des enquêtes ou d’être mesurés. Si tout est bien fait, il y a une sorte de contrat entre le panéliste et la société (d’études) qui gère le panel.

    Ce contrat se doit d’être bien plus formel qu’un consentement à accepter les cookies. Il faut en effet faire preuve de pédagogie et de transparence pour que des panélistes répondent à des questionnaires, installent un logiciel ou un boitier dans leur salon.

    Et ledit contrat prévoit aussi une contrepartie. Celle-ci peut être monétaire, ou sous forme de cadeaux ou d’avantages.

    La motivation peut aussi être bien plus désintéressée. Il y a quelques années, un de mes oncles CSP++ m’avait dit participer au panel TV de Médiamétrie. Ne cherchez pas, j’ai plein d’oncles (des deux côtés) et le nom Nicolas nous assure un anonymat pas désagréable parfois !
    Je doute que les cadeaux que mon oncle recevait en échange de sa participation l’intéressaient vu son niveau de vie. Mais il se sentait fier de participer à une mesure qui allait permettre de fournir des données si importantes pour le marché.

    Quelque soit la motivation, les panels fixent un cadre de consentement bien plus clair que les data.

    Je pose ici une question : lorsque la CNIL demande que l’acceptation des cookies ne mette en jeu aucune contrepartie, ne va-t-elle pas plus loin que les contrats qui lient les panélistes aux sociétés de panels ?

    Pourrait-il y avoir des panels sans contreparties ? Juste pour la beauté du geste ? Sur la planète Bisounours peut-être, mais pas ici.

    De même, est-il possible d’envisager que les visiteurs d’un site acceptent les cookies juste parce que le site le leur demande gentiment, avec un gif animé « chat suppliant aux grands yeux tristes » ?

    Gifs Chat potté animes, Images transparentes Chat potté

    Tentons une expérience. Je vous le demande gentiment, avec de grands yeux tristes : pourriez-vous, s’il vous plaît, partager cet article sur LinkedIn ? Miaowwww ?

  • Panels vs data : la qualité des données

    Panels vs data : la qualité des données

    Dans le match qui oppose les panels d’audience et les data (au sens de données individuelles), j’ai déjà parlé de la notion d’individus et de la répétition.

    Parlons un peu maintenant, et puisque nous mettons le pied dans le monde des échantillons, parlons de la notion de représentativité.

    En 1936, Georges Gallup (ce nom vous dit peut-être quelque chose si vous avez déjà vu des sondages) a prédit la victoire de Roosevelt aux élections présidentielles américaines. Face à une enquête massive réalisée par un journal auprès de ses dix millions de lecteurs, Gallup n’a aligné qu’un échantillon de 50 000 répondants.
    Petit, oui, mais représentatif.

    La représentativité statistique signifie qu’un échantillon a la même structure que la population qu’il est censé représenter. Dans le cas de Gallup, les lecteurs du journal n’avaient certainement pas le même profil (sexe, âge, niveau social, etc.) que les électeurs.

    La représentativité est clé si l’on veut réaliser des projections. Projeter un résultat revient à dire « Si 55% de mon échantillon vote pour Roosevelt, alors environ 55% des électeurs voteront pour lui ».

    Je visualise la projection comme un projecteur de cinéma qui reproduit la pellicule de 35 millimètres sur un écran de dix mètres de large, ou comme Thalès, lorsqu’il mesura la hauteur de la Grande Pyramide de Gizeh.

    Obtenir un échantillon représentatif est compliqué et coûteux. Médiamétrie a récemment publié un article sur les panels d’audience. Je ne m’étendrai pas ici sur les techniques, mais il faut juste garder à l’esprit que l’on peut agir sur le recrutement (aléatoire) ou sur les calculs (avec des poids de redressements).

    Une fois la représentativité de l’échantillon assurée, il faut savoir recueillir l’information. Soit en posant les bonnes questions, soit en mesurant le comportement. Une fois encore, comme en physique quantique, la mesure peut modifier le résultat qu’elle cherche à quantifier.
    Demandez à quelqu’un s’il va voter pour ce « gros connard de XXX », et vous aurez des résultats biaisés.
    De même, un échantillon mesuré (dans le cas d’une mesure d’audience média) peut être biaisé par des limitations techniques (ne pas être capable de mesurer la radio dans les voitures par exemple).

    On voit donc que la qualité d’un panel d’audience relève d’un véritable savoir-faire.

    A l’autre bout du spectre, dans le monde de la publicité digitale, on a les data. Par « data » je fais toujours référence aux données liées à un identifiant.

    Ici, l’objectif n’est habituellement pas de projeter. On utilise la data pour cibler et mesurer. Si on n’a pas de data, on ne fait rien, on est aveugles.

    La data aussi peut s’avérer de plus ou moins bonne qualité.

    Lors de son recueil, elle va dépendre de la question posée , ou de l’intérêt que l’on a d’y répondre correctement (« vous avez bien 18 ans ? » avant d’accéder à un site porno par exemple). Pourquoi devrais-je donner ma vraie date de naissance pour valider un achat de bouquin ???

    Vous me direz, une bonne partie des data utilisées n’est pas déclarative. Les data comportementales sont enregistrées automatiquement (un pixel ne peut pas mentir). Mais on aurait tort de les croire parfaites.

    Lorsque je détaille les différences entre les cookies et les individus, j’explique que les premiers sont souvent en silos. Il y a donc de nombreux cookies pour un même individu. Les techniques de cookie matching règlent ce problème (avec des pertes).
    Mais à l’inverse, il y a souvent aussi plusieurs individus pour un même cookie. Et dans le cas, le comportement mesuré ne correspond parfois plus à la personne que l’on cherche à toucher lorsqu’on achète une publicité. Sur un ordinateur familial partagé comme chez moi, on a pratiquement quatre utilisateurs, dont au moins deux quotidiens. Alors imaginez chez Nico qui a cinq gosses !

    La croyance en la perfection de la data doit donc être relativisée chez nombre de ses utilisateurs.

    Est-ce à dire que la qualité de la data ne permet pas de réaliser des projections ? Pas du tout ! Mais il faut prendre la data pour ce qu’elle est : une mesure imparfaite obtenue sur un échantillon imparfait.

    Si l’on veut projeter (ou extrapoler), il faut 1. être conscient des limitations des data dont on dispose 2. maîtriser les techniques de redressement.

    Le hic c’est qu’aujourd’hui, ces notions ne sont pas partagées, et que, en digital, la notion même de qualité n’a jamais eu autant de poids que la quantité.

    Car le pendant de la qualité, c’est son coût. Et le coût d’un échantillon représentatif dicte sa limitation principale, la taille.
    Plusieurs fois, mes interlocuteurs en agence, qui n’avaient jamais été formés aux panels, ont comparé les tailles d’échantillons (quelques dizaines de milliers) avec les volumes de data (plusieurs dizaines de millions de cookies).

    La taille importerait donc ?

    Cela dépend de ce que l’on veut faire.

    Si on cherche la finesse, la taille permettra de créer des cibles sur des comportements les plus fins, jusqu’au micro-ciblage, le retargeting. Et si on utilise la data pour cibler directement, on ne commet que l’erreur que je mentionnais plus haut (individus vs cookies).

    Mais si on veut projeter des résultats, on peut se tromper lourdement, car les biais peuvent s’avérer énormes. En effet, les projections démultiplient les erreurs. Si Thalès avait mal mesuré son bâton de quelques centimètres, son estimation aurait été fausse de plusieurs dizaines de mètres !

    Pour les panels, c’est pareil. Des données fausses (recrutement biaisé, mesure incomplète) génèrent des écarts de prévisions importants. Vous pouvez par exemple croire qu’un site est bien adapté à votre cible, alors qu’une partie importante de son audience est sous représentée dans votre échantillon.

    Inversement, les erreurs de projection d’un échantillon représentatif sont bien inférieures (merci M. Gallup). Mais la finesse reste limitée.

    En conclusion, tout dépend de ce que l’on cherche. Si on a droit à une marge d’erreur importante, la qualité peut rester en second plan par rapport à la qualité.

    Mais si on cherche à construire la confiance, et c’est un facteur-clé de succès des études, la marge d’erreur acceptable doit être minime. Et la qualité prime.

  • I’m not quite dead, sir! Les panels d’audience ne sont pas morts

    I’m not quite dead, sir! Les panels d’audience ne sont pas morts

    Les panels d’audience permettent de mesurer, planifier des campagnes publicitaires, et valider les achats média depuis des dizaines d’années. En France il existe des panels pour la télévision, la radio, et Internet.

    Sur internet, l’essor des data utilisateur a presque limité la mesure d’audience par panel aux études. Alors qu’en télévision les panels restent la base des achats et de la facturation.

    Depuis plus de 10 ans, le marché préfère en effet acheter (cher) de la data utilisateur que fonder son ciblage sur l’audience des sites. L’hyper-ciblage est venu enfoncer un clou supplémentaire dans le cercueil des panels avec des cibles comportementales ultra-précises.

    La génération actuelle des acheteurs du média digital ne connaît pas les panels. On ne peut pas les blâmer, ils ont été biberonnés aux clics de Google, au retargeting de Criteo, au TrueView de Youtube, à l’audience de Facebook.

    Parlez de panels à un trader média, il vous dira : « un échantillon de 20 000 personnes ? Ca sert à quoi ? Moi j’achète des bases de millions de cookies ! ». Comparer les tailles des panels aux bases de cookies, ça n’a pas de sens, évidemment. Mais comment pourrait-il le savoir ?

    Mais une série de tempêtes vient perturber le calme océan du ciblage par data : RGPD, Cookies tiers (Safari, puis Firefox, puis Chrome en 2022), ATT d’Apple, CNIL… La fin du tout data est annoncée.

    Comment alors cibler les publicités digitales ?

    Je ne vais pas lister les différentes options (des ids unifiés aux cohortes de FLoC), mais juste rappeler qu’il existe une notion qui a fait ses preuves : le panel.

    Les panels ne sont pas morts ! Certes il ne faudra pas s’attendre à répliquer les mêmes méthodes avec les panels qu’avec la data. Mais leurs caractéristiques méritent que l’on procède à une petite analyse comparative.

    J’ai déjà largement parlé de la différence entre les individus et les cookies.
    Du point de vue marketing, il est donc beaucoup plus exact de s’intéresser à un individu qu’à un cookie, qui ne représentera qu’une vision parcellaire du comportement d’un individu.
    Un simple concept technique comme les répétitions, sont fausses, même (et surtout) avec des cookies !

    Donc sur la notion d’individu, le match est déjà joué : Panels 1 – 0 Data.

    Mais comme il faut bien garder le suspens, et remplir ma liste d’articles à écrire pour les semaines à venir, je ne vais pas tous développer tout de suite les autres aspects qui différencient les data et les panels. Mais leur simple énumération peut déjà vous intéresser.

    Voici ce qui vous attend dans les prochaines semaines :

    • La qualité des données : d’où viennent les data ? Comment les panels sont-ils recrutés ?
    • Le consentement : comment repenser le ciblage sur la base du consentement ?
    • Les silos : peut-on avoir une vision exhaustive du comportement digital d’un individu ?
    • La taille : petit et bien foutu ou gros et malformé (demandez à M. Gallup) ?

    Enfin, si vous ne l’avez pas déjà vu 100 fois, regardez « Sacré Graal » des Monthy Pythons.
    J’aurais adoré illustrer cet article avec la scène du black Knight. Mais la réplique « I’m not quite dead » (« je ne suis pas tout à fait mort) de la scène de Concorde et Lancelot se prêtait mieux à cet article.