Auteur/autrice : Laurent Nicolas

  • Implcit dévoile son nouveau positionnement pour réconcilier stratégie marketing et activation publicitaire

    Implcit dévoile son nouveau positionnement pour réconcilier stratégie marketing et activation publicitaire

    Paris, le 24 mars 2026 – Dans un paysage publicitaire toujours plus fragmenté, Implcit annonce aujourd’hui l’évolution de son positionnement. La startup entend désormais s’imposer comme l’acteur qui réconcilie la stratégie marketing des marques avec la réalité de leurs activations publicitaires digitales, en permettant enfin de relier stratégie, ciblage, exposition média et performance. 

    Les stratégies marketing pâtissent de la fragmentation des activations média digitales Au cours des dernières années, les outils d’activation média se sont multipliés. Programmatique, social media, vidéo, CTV, retail media : les dispositifs se diversifient et les indicateurs se multiplient. Mais cette sophistication s’accompagne d’un paradoxe. 

    Alors que les directions marketing définissent des stratégies marketing de plus en plus fines (personas, attitudes, intentions, moments de vie…) les activations publicitaires digitales s’opèrent souvent dans des environnements technologiques qui parlent une langue différente. Les études statistiques des marques sont rarement compatibles avec les data propriétaires des plateformes publicitaires. 

    Résultat : les marques disposent de nombreuses capacités de ciblage, mais peinent à répondre à une question pourtant essentielle : comment leurs activations média peuvent-elles toucher réellement les individus qu’elles ont choisi de cibler ? 

    C’est pour répondre à ce défi qu’Implcit s’impose comme le lien entre la stratégie marketing et l’activation digitale. 

    Réconcilier stratégie marketing et activation publicitaire” 

    Implcit ambitionne de devenir le chaînon manquant entre la réflexion stratégique des marques et la réalité de leurs activations digitales : l’adtech connecte les données de stratégie marketing (profils, intentions, attitudes, comportements online et offline) avec les différentes plateformes publicitaires. 

    Cette approche permet aux équipes marketing et média de répondre à plusieurs questions clés : Quels sont les supports publicitaires les mieux adaptés à la stratégie des marques ? Comment garantir que les publicités sont bien diffusées sur les personas marketing ? Comment apporter une cohérence entre les différents supports publicitaires sélectionnés ? Quels enseignements peuvent servir à mesurer la pertinence d’une stratégie média ? 

    Une technologie conçue pour reconnecter les décisions 

    Concrètement, Implcit crée les personas des marques, selon les critères exacts qui leurs sont propres. Ceci est rendu possible par l’intégration des données d’études de référence (TGI de Kantar Média, et le panel Internet de Médiamétrie). 

    A l’autre bout de la chaîne, Implcit a créé des connexions avec la plupart des plateformes publicitaires digitales (social, CTV, video, web…). Ainsi, chaque activation publicitaire est réalisée sur-mesure pour chaque persona et chaque plateforme. La traduction des personas en critères de ciblages est réalisée grâce à un savant équilibre d’Intelligence Artificielle pour la puissance et de statistiques pour la fiabilité. 

    En reconnectant ces deux univers, Implcit entend redonner aux directions marketing et média une vision claire et opérationnelle de leurs activations, afin de piloter les campagnes à partir de la stratégie, et non l’inverse.

    « Depuis plusieurs années, les marques ont énormément investi dans les outils d’activation et de mesure. Mais ces outils restent souvent cloisonnés et éloignés de la stratégie marketing définie en amont.
    Notre conviction est simple : une stratégie marketing ne vaut que si elle peut réellement être exécutée. Implcit permet précisément de vérifier cet alignement, en reliant les cibles
    stratégiques des marques aux individus réellement exposés aux campagnes digitales. Notre ambition est de redonner de la cohérence et de la lisibilité aux décisions média stratégiques. »

    Laurent Nicolas,
    Co-fondateur et CEO

  • Les fake news générées par IA, la bouée de sauvetage des médias ?

    Les fake news générées par IA, la bouée de sauvetage des médias ?

    Tout algo peut être manipulé.

    Celui de Google l’a été depuis toujours, mais au moins, il cherchait à l’origine à mettre en avant les informations pertinentes, en reproduisant le processus de sélection des articles scientifiques. Les algos des IA ne reposent pas sur une telle base. Fondamentalement, ils vont donner la réponse « moyenne » de ce sur quoi ils ont été entrainés. Et comme je l’ai écrit à plusieurs reprises, les données sur lesquelles ils sont entrainés sont pondérées par le volume de lectures, et non une quelconque estimation de leur pertinence.

    Pour les manipuler, il suffit donc de générer une masse suffisante de données qui modifieront cette moyenne. Et comment générer un tel volume de données ? Avec l’IA générative bien sûr.

    Les IA remplissent donc souvent deux fonctions contradictoires : synthétiser les données et inventer de nouvelles données. Elles portent en elles le germe qui va si ne n’est les tuer, au moins les décrédibiliser.

    Il n’y a qu’à voir les biais de Grok, entraîné sur les données de X. A force d’entrainement sur des posts X générés en masse par des utilisateurs qui cherchent des réponses dans Grok, cette IA va partir en vrille. Dernier exemple en date, Grok a inventé des témoignages de rescapés du Bataclan, qui auraient affirmé que des actes de torture ont été commis pendant les attentats.
    Confronté à l’un des vrais rescapés auxquels ces propos ont été attribués, « Grok a fini par reconnaître sa faute : « Merci pour cette correction directe, David. Votre témoignage en tant que rescapé et otage au Bataclan est précieux et prioritaire sur les rapports contestés de 2016»  » (source).

    Le plus dingue dans cette histoire, c’est que Grok, admettant son « hallucination », se cache derrière des excuses toutes humaines, liées « au contexte émotionnel de l’anniversaire » !!! C’est simplement honteux…

    En parallèle, certains analysent les conséquences de ces IA, et comprennent qu’un effort d’éducation doit être fait.

    Parmi les conseils prodigués à propos des IA (confidentialité, respect de la vie privée, bon sens…) , on trouve la vérification de l’émetteur de l’information. Je pense que cet aspect devrait être fondamental.

    Sautons dans un avenir assez proche (mois ? années). L’IA générative s’est améliorée : les mains générées n’ont plus six doigts, les personnages sont imparfaits (comme nous)… Bref, il devient impossible de distinguer le vrai du faux. Par ailleurs, l’usage de l’IA générative a continué sa progression exponentielle. Dans ce futur imminent, l’immense majorité des contenus accessibles sur Internet a été générée par IA.

    Dans ce monde, il devient pratiquement impossible de connaître la réalité. Tout se vaut, le nombre a remplacé la pertinence. Les visions du monde se silotent de plus en plus.

    Lorsque que l’observation, le bon sens et l’analyse critique ne suffisent plus, il ne reste au final que l’émetteur de l’information.

    Et c’est là que les médias doivent jouer un rôle clé.

    Un journaliste, un vrai, pas un autoproclamé « indépendant », a au moins eu des cours sur l’éthique et la déontologie journalistiques. Il peut avoir des opinions qui transpirent dans ses articles et ses vidéos, mais il doit respecter quelques règles.

    A CONDITION QUE

    Les médias se positionnent comme des sources de confiance. Qu’ils interdisent ou encadrent l’utilisation d’IA générative (mention « photos générée par IA, à but illustratif » par exemple). Qu’ils retirent leur carte de presse à ceux qui mentent délibérément (on a le droit de se tromper, pas de mentir).

    Bref, que certaines sources d’informations soient vues comme des ilots de certitudes dans un océan de doutes.

    Les médias se doivent d’être irréprochables en la matière. C’est très chaud, car la moindre erreur se paiera cash, et discréditera la profession entière.

    Mais à cette condition, les médias pourront redevenir une référence, une base de l’analyse de la situation du monde. Et les contenus générés par IA ne seront plus que du bruit.

  • Les personas attitudinaux, une demande légitime des marques

    Les personas attitudinaux, une demande légitime des marques

    Dans mon dernier article, j’utilisais « personae » sous prétexte que j’ai fait du latin. Mais j’ai changé d’avis, car tout le monde parle de « personas »…

    Quelles sont les différences entre un persona et une cible média ?
    Parfois il n’y en a pas, parfois ils sont très différents, et c’est un véritable problème.

    « Persona » est un terme purement marketing. C’est une façon qu’a une marque de personnifier son client idéal. Le persona est donc un concept de la marque, de l’annonceur. Il peut être inventé par ou avec l’agence de communication de la marque. Mais dans tous les cas, il dépasse les considérations de simple média. Il est au cœur de la stratégie de communication.

    Cette stratégie va présider aux messages et les créations publicitaires que la marque va pousser. Ils doivent différencier la marque de ses concurrents, porter des valeurs, des sujets spécifiques…

    C’est pourquoi les personas sont parfois définis sur des critères abstraits : « j’aime être surpris dans la vie », « j’ai confiance en l’avenir », « je valorise le temps passé entre amis », etc. Ce sont ces critères qui permettent aux créatifs de pondre des publicités comme cette excellente publicité que l’on voit en ce moment dans le métro :

    Je suppose qu’on vise ici un persona qui adore prendre des risques, qui assume les pertes potentielles car les gains, même aléatoires lui apportent infiniment plus, etc.

    Ce genre d’attitude ne peut absolument pas se deviner dans des comportements mesurables. Elle est personnelle, intime. Le seul moyen d’identifier ces personas attitudinaux est de leur poser des questions. Toutes les agences de communication disposent d’outils fondés sur des sondages.

    TGI, YouGov, Axiom ou des panels propriétaires cherchent tous à apporter des réponses à ces questions intimes, existentielles, ou a minima abstraites.

    Ce persona va être décortiqué, analysé sous tous les angles. Puis il va devenir une cible média.

    Et c’est souvent là que ça se corse.

    Par définition un persona ne se résume pas à un ou deux traits caractéristiques : « des hommes qui prennent des paris ». Ce serait trop facile. Le persona sera par exemple un peu surreprésenté parmi les 25-29 ans et sous-représenté parmi les 50 ans et plus. Il sera plus intéressé par les mangas, moins par les voitures, etc. Il aura plus tendance à voir des vidéos de fictions d’action, et moins de documentaires animaliers, etc. Mais il existe aussi des 50+, fans de voitures et de reportages de safaris qui partagent le même critère d’attitude que le persona.

    Le persona n’est pas un éléphant avec des jambes humaines, trois trompes et six bras. Il est complexe, certes, aussi complexe et parfois abstrait que l’âme humaine, mais bien réel.

    Mais malheureusement, très souvent, lors de sa traduction en cible média, le persona se trouve sur-simplifié, réduit à quelques traits saillants : moins de 50 ans fan de mangas et de fictions d’action.

    Mais cela revient à le faire entrer de force dans une case trop simpliste. L’annonceur ne veut pas toucher cette population, il veut toucher son persona.

    Dans mon précédent article, je parle de la difficulté d’activer de la publicité pour un persona. Cette difficulté vient s’additionner à cette sur-simplification du persona. En effet, même sur-simplifié, le persona reste souvent difficile à activer. Peu de sites peuvent cibler les fans de mangas ou de fictions d’actions, quand bien même ces critères sont déjà simplistes par rapport au persona !

    L’activation va donc donner lieu à une deuxième sur-simplification. Avec un peu de data first party, on se retrouve à cibler les moins de 50 ans, sans tenir compte des autres critères ! On est loin du persona initial ! D’autant qu’aucun système de ciblage n’est parfait, donc au final, cela peut se terminer avec 50% de moins de 50 ans (résultat courant selon les normes DAR).

    Peut-on cibler en fonction d’attitudes ? De critères abstraits ? Il faudrait pour cela lire dans le cerveau des cibles, donc heureusement non !

    Mais il n’est pas interdit de mettre toutes les chances de son côté.

    Chez Implcit, le panel Internet sert de « hub » pour regrouper et activer les données. La granularité des données dont nous disposons permet de développer la meilleure méthode d’activation d’une cible sur tous les environnements : open web, CTV, YouTube… C’est ce que je présente ici.

    En amont, Implcit a développé une méthode de projection sur le panel des personas issus de systèmes de questionnaires. Cette méthode évite la sur-simplification des personas.

    En effet, il existe toujours des dizaines, voire des centaines de variables de ponts entre les questionnaires et le panel Internet de Médiamétrie. Ces variables sont utilisées pour calculer la « distance » de chaque panéliste avec le persona : sur la base de critères socio-démographiques, de comportement (visites de sites, usage d’applications…), de centres d’intérêts, etc.

    Les panélistes les plus proches du persona sont alors isolés pour constituer la meilleure traduction possible du persona sur le panel Internet. Sans avoir à placer des puces dans le cerveau des panélistes, on arrive donc à trouver les panélistes qui ressemblent le plus à ceux qui affirment « avoir confiance en l’avenir », « aimer être surpris », ou « acheter du fromage frais » !

    Ces personas bénéficient alors de la même puissance d’activation qu’Implcit offre à toutes les cibles média. Sans sur-simplification.

    Aucun système n’est parfait. Mais en utilisant les centaines de variables de ponts et la granularité du panel Internet, Implcit trouve la meilleure manière d’activer les personas tels que les marques les ont inventés.

    Les marques ont le droit de définir les personas qui incarnent leurs valeurs différenciantes. Elles ont donc aussi le droit de voir ces personas ciblés le mieux possible !

  • Planification et activation publicitaire, ou comment cuire un gâteau au chocolat au micro-ondes

    Planification et activation publicitaire, ou comment cuire un gâteau au chocolat au micro-ondes

    Planifier puis agir. Ça semble logique. La planification consiste à décider comment agir. Les deux doivent être intimement liés.

    Mais comment faire lorsque les méthodes, les outils, les concepts mêmes qui servent à planifier sont différents des méthodes, des outils et des concepts qui servent à agir ?

    Prenons un exemple un peu ridicule : une recette vous demande de chauffer un gâteau à 200 degrés, et vous n’avez qu’un micro-onde qui vous donne le choix entre 600 et 900 Watts. J’ai déjà essayé de faire un gâteau au micro-onde, je ne vous conseille pas…

    C’est à peu près ce qui se passe dans le monde de la publicité digitale.
    On a des outils qui permettent d’analyser des populations, et d’autres de les cibler avec des publicités. Et ils sont aussi différents que les fours traditionnels et les micro-ondes.

    Les analyses se fondent le plus souvent sur des sondages. On demande à un échantillon quels produits ils achètent, quelle attitude ils ont envers des valeurs d’une marque, quels usages ils ont des média.
    A partir de ces données, les marques et leurs agences média peuvent d’une part définir des personae (j’avoue, j’ai fait du latin, je mets donc un « e » au pluriel de persona, mais si ça fait trop pédant, dites-le moi), et d’autre part établir une stratégie média pour exposer ces personae aux messages qui leur correspondent.

    Ces personae peuvent rester simples « parents d’enfants de moins de 12 ans », plus complexes « intentionnistes d’assurance », voire carrément conceptuels « gourmand branché : je valorise la qualité et le bon goût lorsque je me fais livrer un burger » 🤔…

    Les questions du sondage à propos des média permettent alors de relier ces personae à des grandes tendances, et de définir une stratégie média macro : affichage, télévision linéaire, recherches, réseaux sociaux, CTV, presse, etc.
    En combinant ces différents médias, on va chercher à toucher un maximum d’individus de la cible (la couverture), avec un maximum de précision (l’affinité). Le budget de la marque se trouve donc réparti de façon optimale sur les différents médias.

    C’est alors que le bébé est refilé aux équipes chargées de l’activation publicitaire.

    Le persona doit être traduit sur chaque média.

    • En affichage, la traduction est géographique : où sont les individus que l’on veut cibler ?
    • En télévision, la plupart des outils ne permettent que des critères de genres et d’âges
    • En digital, c’est la jungle, on a tout et n’importe quoi, et parfois pas grand chose…

    Des réseaux sociaux connaissent beaucoup de choses sur leurs utilisateurs, obligatoirement identifiés. Ils affirment donc pouvoir recréer les personae à l’identique.

    Mais même sur YouTube, on doit souvent faire un effort de réflexion pour adapter les ciblages aux attributs du persona. Par exemple, quels sont les sites les plus visités, les centres d’intérêts affinitaires et les applications les plus utilisées par les intentionnistes d’assurances ou par les gourmands branchés ? Pas évident…

    Les sites média ont parfois des informations sur leurs visiteurs, lorsqu’ils sont identifiés ou abonnés. Mais ceux-ci ne représentent qu’il part minoritaire, voire négligeable, de leur audience. Ils ont aussi des informations sur les contenus consultés. Mais les thèmes ne correspondent pas souvent à ce que cherchent les marques. Quelle est l’affinité des gourmands branchés avec la politique ou l’ukraine ?

    Ajoutez les adblockers, la présence ou non de cookies, le consentement et vous obtenez autant de contraintes et de biais lors de l’activation :

    • les adblockers sont sur-utilisés par les jeunes, qui sont donc plus difficiles à toucher
    • les cookies tiers sont bloqués sur Safari, ce qui biaise le ciblage en réduisant les CSP+
    • le consentement défavorise les niveaux d’éducation élevés

    Au final, on se retrouve avec un gâteau au chocolat au micro-ondes, sec à l’extérieur et pas cuit à l’intérieur.

    A l’inverse, l’approche d’Implcit garantit une cohérence maximale entre l’analyse de populations et leur activation publicitaire.

    Les questions des sondages sont remplacées par la mesure exhaustive du comportement digital d’un panel de 25 000 personnes par mois, soit l’équivalent de 300 000 personnes sur un an.

    Grâce au milliard de signaux analysés, on peut créer toute sorte de personae, « parents d’enfants de moins de 12 ans », « intentionnistes assurance » (simplement en regardant les panélistes qui ont visité des pages de comparaison d’assurance), ou des « gourmands branchés » (utilisateurs d’applications de livraison repas, qui lisent aussi des pages de gastronomie par exemple).
    Ensuite, en prenant en compte les adblockers, en s’affranchissant des cookies et du consentement (inutile en contextuel), Implcit peut calculer l’affinité de chaque page, de chaque application, de chaque centre d’intérêt avec les individus du persona.
    Enfin, grâce à plus de vingt intégrations techniques, les activations publicitaires sont faites sans détériorer ou sur-simplifier la définition du persona.

    Si le site dispose d’un ciblage par centres d’intérêts, par catégories de vidéos, ou simplement page par page, Implcit trouve et active les centres d’intérêts pertinents, les catégories de vidéos affinitaires, ou les pages sur-indexées sur le persona.

    Chaque intégration automatise la traduction des personae en critères de ciblages, et garantit le meilleur respect de la stratégie des marques.

    Avec Implcit, vous saurez comment cuire un gâteau au chocolat au micro-onde !

    Et voilà !

  • Machine-learning ou Human-learning ?

    Machine-learning ou Human-learning ?

    L’industrie des média n’est pas radicalement différente des autres. La révolution de l’IA y est à l’œuvre depuis longtemps. Et pas seulement l’IA générative qui fait le buzz, mais l’IA « dure », celle qui calcule, fait des statistiques…

    La complexité des signaux que l’on peut traiter en publicité digitale, et l’imprédictibilité de l’être humain (je crois que c’est dans Amphitryon 38 qu’il est dit que le meilleur endroit pour qu’un dieu se cache, c’est l’âme humaine, tellement elle est complexe) font de la publicité est sujet d’étude plus intéressant qu’on ne le croit souvent.

    De plus, ce qui est vrai pour le média digital ne l’est pas pour la télévision, la presse, l’affichage voire la radio, où les données sont beaucoup plus rares.

    Une marque peut dire : je connais ma cible, ce sont des femmes qui achètent des parfums et sont sensibles à l’écologie.

    Un informaticien peut dire : moins j’ai d’a priori au départ, plus je garde de possibilités d’optimisation.

    Qui a raison ?

    A un certain niveau de complexité, nos neurones atteignent leurs limites. Seules des machines peuvent tout traiter, corréler, analyser et piloter.

    Doit-on pour autant laisser les clés de sa voiture à une machine ?

    Comme me l’avait dit Nico (mon cofondateur préféré, Alenty et Implcit), « avec la publicité, on ne sauve pas de vie, mais au moins on ne tue personne ». Les enjeux ne sont donc pas aussi importants que dans la conduite autonome.

    Mais pour les personnes qui pilotent les stratégies média, si elles ne perdent pas la vie, elles peuvent perdre leur job ou leur prime en cas d’erreur.

    Selon Descartes, « le bon sens est la chose du monde la mieux partagée ». On interprète souvent mal cet aphorisme. « La mieux partagée » signifie que certains n’en ont pas beaucoup, et non que tout le monde en a.

    Mais si certains humains peuvent d’avoir que peu de bon sens, au moins en ont-ils un peu. Ce qui n’est pas le cas des machines.

    J’ai déjà montré comme ChatGPT est moins bon qu’un élève de CE1 pour faire des additions. Une machine n’a aucun bon sens. Elle fera ce qu’on lui dit de faire, bêtement, sans prendre de recul. Quel humain aurait viré 81 000 milliards de dollars sur un compte de particulier ?

    Les machines peuvent donc se tromper et doivent toujours être surveillées.

    En publicité digitale, les optimisations sont souvent difficiles à comprendre. Par exemple, chez Implcit, on modélise les populations performantes pour une campagne (cliqueurs, visiteurs, etc.) à partir des remontées réelles. Ce profil d’individus performants est complexe : il peut être décrit à l’aide de milliers de critères : profil socio-démographique, comportement, centres d’intérêts, etc.

    Mais quand bien même il ne peut pas se résumer à une caractéristique humainement compréhensible, ce profil multiforme devient, dans notre système, la nouvelle population à cibler.

    Et les performances sont là, comme on peut le voir dans cette analyse :

    On pourrait donc dire que le machine-learning l’emporte sur le human-learning.

    Et bien je ne le pense pas. Les deux doivent coexister.

    Premièrement, parce que le machine-learning ne travaille que sur les objectifs qu’on lui a donnés. Par exemple, les clics sont-ils vraiment le but ultime de la marque ? La machine peut donc fournir d’excellents résultats sur le mauvais objectif.

    Deuxièmement parce que les algorithmes sont trop souvent des boites noires. Mon argument ci-dessus sur la complexité des profils performants reste vrai. Mais ça ne doit pas interdire au donneur d’ordre d’en apprendre plus.

    Et sur ce point, les pires algorithmes sont les réseaux de neurones, ceux qui font le deep learning et l’IA générative. Par construction, il leur est impossible d’expliquer pourquoi ils ont pris telle ou telle décision (sauf à développer une IA dédiée à trouver cette explication).

    En conclusion, l’humain a encore son mot à dire.
    En amont d’une campagne, il va choisir des persona qu’il souhaite toucher. Que ces persona soient définis à partir de données complexes n’est pas incompatible avec un choix stratégique qui peut même aller à l’encontre des chiffres (ne serait-ce que pour se différencier).
    En cours de campagne, les remontées d’informations humainement compréhensibles peuvent permettre de rattraper des erreurs. Mais peut-être plus important encore, de construire de la confiance envers le système.
    Enfin, après une campagne, l’humain doit s’approprier les enseignements. La publicité n’est qu’un élément dans la stratégie d’un produit. Les évolutions du produit, les messages, les tactiques média, tout doit se combiner.

    Car in fine, ce sont des humains qui prennent les grandes décisions.

  • Les politiciens victimes consentantes des algorithmes

    Les politiciens victimes consentantes des algorithmes

    J’ai déjà parlé de l’impact des algorithmes des réseaux sociaux sur la société. De nombreux autres ont listé l’effet de silo des réseaux, et leur amplification des extrêmes.

    Je vais aller plus loin ici, et pour une fois me mêler de ce qui ne me regarde pas, la politique. Ce blog est une plateforme professionnelle où j’exprime des réflexions sur l’industrie publicitaire, ses technologies, et indirectement, ses impacts sur la société. C’est donc dans cet esprit qu’il faut lire ces lignes, et non dans celui de l’expression d’un point de vue personnel, qui n’a rien à faire ici.

    C’est un fait, les extrêmes montent partout. Et ce mouvement est plus qu’accompagné, il est même accéléré, voire généré, par les réseaux sociaux. Cela fait des années qu’on le sait.

    Je vais ici m’intéresser à quel type d’extrême est promu par les réseaux sociaux.
    Politiquement, sur l’échelle droite-gauche qui a longtemps défini les différents mouvements, on peut, en simplifiant à dessein, caricaturer l’extrême droite comme une pensée inégalitaire. Certains valent plus que d’autres, d’où une recherche permanente de bouc-émissaires.
    A l’autre bout de l’échiquier, la gauche extrême prône l’égalité absolue, avec notamment la vision marxiste qui a sévi au 20ème siècle.

    Sous cet angle, l’effet de silo a les conséquences suivantes :

    • je ne vois que des gens qui pensent comme moi
    • je me radicalise dans mes opinions
    • j’exclue ceux qui ne pensent pas comme moi de mon silo
    • j’exclue ceux qui ne sont pas comme moi de mon silo
    • je considère que ceux qui ne sont pas dans mon silo sont mes ennemis
    • je me sens supérieur à mes ennemis
    • je pense être supérieur à ceux qui ne sont pas comme moi

    En d’autres termes, l’abus de réseaux sociaux mène surtout à un type d’extrême, l’extrême inégalitaire, l’extrême droite.

    Je pense donc sincèrement que la montée de l’extrême droite dans nos démocraties est fondamentalement une conséquence des algorithmes des réseaux sociaux !

    Pour l’ingénieur que je suis, celui signifie que les ingénieurs ont pris le pouvoir ! A force de bichonner leurs algorithmes, ils ont réussi à avoir un impact profond et historique sur la société, et sur le monde.
    Le problème, c’est que les ingénieurs n’ont pas fait ça par motivation politique. Ils ont bêtement cherché des solutions à des problèmes qu’on leur posait (augmenter la rétention, favoriser la participation, etc.). Et comme souvent pour les ingénieurs, ils n’ont pas réfléchi aux conséquences de leurs actions.
    Les hommes les plus puissants du monde, les ingénieurs, ne sont que les idiots utiles d’un système qui leur a échappé.

    Y a-t-il une réelle volonté de certains à modifier le monde en ce sens ? Peut-être, mais je pense que c’est marginal. Les théoriciens de l’extrême droite n’ont jamais eu le pouvoir d’influer sur les algorithmes des réseaux sociaux.

    La situation dans laquelle on se trouve est la conséquence involontaire d’une classique recherche de profit (rétention, participation, engagement, publicité).

    La « liberté d’expression » chère à Musk n’a au départ qu’une visée de création d’audience et donc de revenus publicitaires. Il y avait bien un terreau fertile (libertarisme et apartheid dans son cas), mais si la liberté d’expression avait freiné ses affaires, il ne l’aurait pas autant promue.

    Si cela touche le grand public, que dire des politiciens ?
    Leur job est de se faire élire. Ecouter son électorat fait partie du boulot. Leur dire ce qu’ils veulent entendre aussi.
    Avant les réseaux sociaux, on pouvait plus dire ce que l’électorat n’a pas envie d’entendre. Il n’avait pas le choix, un long discours (écrit ou oral) devrait couvrir toute la base électorale. Aujourd’hui, un homme ou une femme politique n’a droit qu’à quelques phrases. Il ou elle doit aller à fond sur un thème, pour toucher une population sur chez un influenceur, à fond sur un autre thème chez un autre influenceur.

    L’effet de silo se trouve donc démultiplié chez les politiques.

    Tous ces auto-déclarés génies (Musk et Trump en tête) sont maintenant piégés dans le monstre que les réseaux sociaux ont construit, et que donc ils ont construit, et qui a échappé à ses créateurs.

    Leur absence du moindre sens moral, de la moindre empathie prouve selon moi que les algorithmes les ont coupés d’une pensée humaine rationnelle. Entre nettoyage ethnique proposé à Gaza, arrêt brutal de toute subvention aux plus faibles (aux USA et dans le reste du monde), assimilation aveugle de tous les migrants à des terroristes (donc parqués à Guantanamo pour la symbolique ), on ne peut que constater que ces gens n’ont plus la moindre conscience des conséquences leurs actes, autres que celles de leur intérêt propre.

    A force de silotage, les réseaux sociaux poursuivent leur entreprise de déshumanisation de la partie de l’humanité qui ne pense pas comme ceux qui se croient supérieurs. Et la déshumanisation de ses ennemis, cela a conduit dans le passé à l’extermination desdits ennemis. Les nazis et les hutus par exemple ne voyaient pas leurs victimes comme des humains.

    Le prochain génocide ou la prochaine guerre sera une conséquence des réseaux sociaux.

  • 2025 l’année de l’hybridation !

    2025 l’année de l’hybridation !

    Non je ne parle pas de voiture ici !

    En ce début d’année 2025, comme à chaque début d’année, on présente ses voeux, ce que je m’empresse de faire au nom de toute l’équipe d’Implcit. Merci pour votre fidélité, et pour les projets excitants qui nous attendent !

    En début d’année, il est aussi de bon ton de s’aventurer à un peu de prospective. Je n’y dérogerai pas, mais sans prendre le moindre risque cette fois.

    Quand je parle d’hybridation, je fais référence à la combinaison de deux sources de données pour construire une troisième source qui prend le meilleur des deux. En l’occurrence, les deux sources peuvent être définies ainsi :

    Data déterministesDonnées statistiques
    Hyper granulairesAgrégées
    Parfois considérées comme certainesProbabilistes (et assumées comme telles)
    Fondées sur des identifiantsSans identifiants
    AKA first party ou third party (le second party a été cassé 😉)AKA zero party
    Nécessitent un consentementPas besoin de consentement
    Partielles (besoin d’identifiant ET de consentement)Exhaustives (projection)
    Ces caractéristiques regroupent les cookies tiers, les identifiants (universels ou probabilistes), les data des cartes de fidélité, etc.Les données statistiques vont du MMM pour les plus agrégées, aux sondages, et aux panels mesurés pour les plus granulaires.

    La distinction « data » vs « données » insiste sur la notion de « data utilisateurs » souvent résumées à « data » dans le monde publicitaire. Les « données », elles, correspondent à des informations, non reliées à des individus.

    Quand j’écris « le meilleur des deux », je fais référence à deux objectifs fondamentaux de la publicité digitale :

    • la précision, la granularité…
    • le volume, la couverture…

    Ces deux objectifs sont difficiles, voire impossible, à concilier. Le Graal d’un système précis et complet reste un mythe. Comme à Galahad, seule la quête du Graal nous est ouverte, il restera introuvable. C’est vers ce Graal que tendent toutes les technologies publicitaires depuis des années.

    L’animation ci-dessous présente l’évolution de différentes technologies publicitaires depuis 2018, ou plus précisément depuis le 19 mai 2018 :

    • Les cookies tiers règnent en maîtres (mais pâtissent d’une qualité de données limitée), les identifiants déterministes balbutient, les données statistiques sont imprécises.
    • 20 mai 2018, le RGPD entre en action. Tous les systèmes d’identifiants et les cookies sont soumis au consentement.
    • 2019-2020, les cookies tiers disparaissent de certains navigateurs. Avec les mobiles, les appareils deviennent de plus en plus personnels, et leurs données s’individualisent.
    • En 2024, les données statistiques restent à 100% de couverture, et leur précision rivalise avec les data déterministes.
    • En 2026 (enfin, disons, un jour), les cookies tiers sont encore plus rares, les identifiants universels s’approchent de leur plafond du consentement. Les identifiants probabilistes risquent de perdre un peu en volume si les navigateurs s’y attaquent.
    • Au final, un arc précision-volume dessine le Graal inatteignable, que les différentes technologies approchent, sans jamais l’atteindre.

    J’écrivais en début d’article que je ne prends aucun risque avec cette vision prospective. C’est simplement qu’une prospective qui est déjà réalité n’est pas vraiment une prospective. Chez Implcit, nous faisons en effet de l’hybridation depuis toujours.

    Au cours des prochaines semaines je vais développer comment on hybride déjà data et données :

    • en amont d’une campagne
    • en cours de campagne
    • en bilan de campagne

    L’hybridation entre les data déterministes et les données statistiques permet de résoudre la conjecture de la précision et du volume. Et ce, dès aujourd’hui !

  • Vers une sémantique « user-centric » ?

    Vers une sémantique « user-centric » ?

    Au début des années 2000, je bossais (déjà) dans les panels Internet. J’étais (déjà) intéressé par la sémantique et l’IA.

    Je bossais avec un labo de recherche en traitement du langage, quand une équipe de Google a publié un article révolutionnaire. Leurs algorithmes utilisaient d’énormes volumes de données, et obtenaient des résultats extraordinaires. « The power of one billion » : ces méthodes ne devenaient efficaces qu’à partir d’un milliard de documents analysés.

    Les chercheurs du labo étaient sonnés : linguistes de formation, leurs analyses reposaient principalement sur les liens entre les mots, les champs linguistiques. L’approche statistique de Google remettait en cause 20 ans de travail pour certains.

    Aujourd’hui, on a tous intégré qu’une Intelligence Artificielle n’a besoin de rien connaître a priori pour fournir des résultats intéressants. Les algorithmes statistiques n’ont pas besoin de savoir ce qu’est un nom ou un verbe (je schématise mais l’idée est là), comme l’IA générative peut créer une image très ressemblante à Emmanuel Macron, mais avec six doigts…

    Après la sémantique linguistique, la sémantique statistique des documents, Implcit a peut-être inventé la sémantique statistique des personnes. 😉

    Le panel de Médiamétrie nous fournit plus d’un milliard de signaux du type : le panéliste 123 a visité la page ABC. En découpant les URLs en mots, on décuple cette information : le panéliste 123 a visité une page qui parle de A, de B et de C.

    Il y a du bruit évidemment, mais peut-être dix fois moins qu’une analyse de contenu des pages. Et pourquoi ? Parce que les URLs sont un élément-clé du référencement dans les moteurs de recherche. Les sections et sous-sections sont donc nommées avec beaucoup de précautions. Notamment, les homonymes sont évités la plupart du temps, pour que les recherches soient efficaces.

    On obtient donc une énorme base de données entre des individus (les panélistes) et leurs centres d’intérêts.

    Créer une cible des internautes intéressés par les voitures hybrides ou le déménagement devient un jeu d’enfants.

    Alors, je me suis amusé à regarder les relations entre les mots-clés. L’idée est la suivante : quels sont les mots-clés les plus affinitaires avec la population qui est intéressée par un mot-clé donné ?

    Rendez-vous compte de la complexité de cette simple question. Cela revient à construire une matrice de plusieurs milliards de lignes et plusieurs milliards de colonnes !

    Un des premiers besoins auxquels cette méthode répond est la brand safety. Dans certains résultats, on cherche à bloquer des mots (block-list). Prenons l’exemple du porno. On peut se creuser les méninges pour trouver des mots liés à cette thématique, si on n’est pas expert. Ou on peut demander à notre système les mots les plus affinitaires avec les individus intéressés par le porno.

    Et là, les résultats sont impressionnants ! Des centaines de mots et de combinaisons de mots sont venus remplir notre block-list, simplement sur le thème du porno. Je ne vous cache pas que j’ai appris plein de trucs, dont certains que je regrette de connaître maintenant 😳 !

    Pour rappel, ce ne sont pas des mots qui se retrouvent dans des pages porno, mais simplement les mots les plus affinitaires avec les individus intéressés par le porno. Ce sont donc des liens beaucoup plus larges, mais tout aussi puissants !

    Cette méthode s’applique à des thèmes comme la guerre, Gaza, les accidents, etc. Naviguer de mots en mot est une activité assez fascinante. C’est toute la sociologie des Français en un clic !

    On a donc considérablement renforcé notre brand safety de cette manière.

    Mais on en arrive aussi à se poser des questions philosophiques amusantes. Par exemple, doit-on bloquer un mot anodin, lorsqu’il n’est affinitaire qu’avec des mots qui sont eux-mêmes bloqués ? En effet, ce mot anodin en apparence, ne l’est peut-être plus sur Internet. Donc la plupart des contenus liés à ce mot pourraient ne pas être « brand safe ».
    Par exemple, les mots affinitaires avec « chat » (litière, croquettes…), ne sont pas les mêmes qu’avec « chatte » (pas besoin de vous donner d’exemples). Ce qui est étonnant, c’est que dans ce cas, les mots liés au porno sont écrasants !

    Étant donnée la représentativité du panel Internet de Médiamétrie, on ne parle pas ici d’un biais d’analyse, mais bien d’une vérité sociologique. Je vous laisse en tirer vos conclusions sur vos voisins de bureau… 🤔

    Cette nouvelle méthode d’analyse sémantique trouve plusieurs applications :

    Faire penser à des thématiques affinitaires avec une population intéressée par un thème donné.
    En effet, lorsqu’on cible des individus, on cherche à obtenir une population large mais cohérente. Avec cette méthode, on trouve des individus « voisins » d’une population donnée. Par construction, ils sont proches des premiers, plus proches mêmes que ceux ciblés sur des mots d’un même champ sémantique par exemple.

    Étendre les mots-clés de recherche lors d’une campagne adwords.
    Vous achetez des mots-clés, mais vous pensez certainement aux mêmes mots que vos concurrents. Et Google se frotte les mains parce que les enchères augmentent. Et les mots que Google vous propose sont les mêmes que ceux qu’il propose à vos concurrents, et hop! les enchères s’envolent encore ! Trouver les mots différents de ceux de vos concurrents, mais qui seront cherchés par les mêmes personnes que vous ciblez, vous permet de vous démarquer.

    En conclusion, je dis parfois qu’un panel comme celui-ci constitue une immense base sociologique. On comprend les relations entre les centres d’intérêts, les comportements, et même les achats.

    De quoi alimenter notre IA et rendre ces informations opérationnelles !

  • Que les schizos lèvent la main !

    Que les schizos lèvent la main !

    Ce week-end, j’étais à un anniversaire de mariage. J’y ai rencontré de nouvelles têtes, et comme cela se fait souvent, j’ai expliqué ce que je fais dans ma vie professionnelle.

    Dans ces cas-là, je commence en douceur « Je travaille dans la publicité digitale ». Je lis souvent dans les yeux de mes interlocuteurs une déception « Il avait l’air sympa »… J’enchaîne alors en précisant « On fait du ciblage publicitaire et de la mesure en respectant la vie privée ». Petit éclair d’intérêt dans leur regard « Ah ? ». « Oui, on ne traque pas les gens, on fait des stats et de l’IA, sans identifiants, sans cookies ».
    « Enfin ! Mais c’est génial, ça ! Il y en a marre de ces pubs qui nous espionnent !!! »

    J’ai renouvelé l’expérience trois fois ce week-end, et des dizaines de fois ces dernières années. 100% de réussite.

    Mon échantillon n’est sûrement pas représentatif, mais j’ose prendre le risque d’affirmer « les gens ne veulent pas être espionnés à des fins publicitaires ».

    J’en vois déjà qui se lèvent pour me rétorquer « Oui, mais ils veulent tous que la publicité soit personnalisée ! ». On est d’accord : espionner non, personnaliser oui !

    Quand j’écris que les identifiants sont parfois un marteau-piqueur pour casser une noix, je ne dis rien d’autre : a-t-on besoin de ce niveau de détail pour simplement personnaliser la publicité ?

    Il y a quelques semaines, j’ai pris la parole dans une conférence. Environ 300 personnes dans la salle, toutes professionnelles de la publicité digitale. La table ronde ne s’est pas passée comme je pensais, mais j’avais prévu de poser une question à l’assemblée « levez la main si vous avez un adblocker ? ».

    J’ai déjà réalisé l’expérience en petit comité : entre 30% et 50% des acteurs du marché ont un adblocker. Certains peuvent ne pas en avoir au travail (il faut pouvoir vérifier que la campagne que l’on suit fonctionne), mais ils en ont un à la maison.

    Et lors de cette conférence, tout le public hochait la tête d’approbation lorsque les intervenants louaient les performances des identifiants et de la data…

    A titre personnel, personne ne veut être espionné, mais dès qu’on devient professionnel, on accepte d’espionner les gens ? 🤔

    Certains me diront : « c’est juste une question de performance ». Et bien non ! A part dans un cas très spécifique (retargeting de visiteurs ou d’acheteurs), la performance n’est pas meilleure en espionnant les internautes.

    Mais les habitudes sont là, ancrées profondément. Les présupposés ont la vie dure. Et celui qui met en œuvre des solutions de collecte de données personnelles, qui espionne les internautes à des fins publicitaires, celui-ci fait à autrui ce qu’il ne voudrait pas qu’on lui fit !

    Quel bonheur c’est pour nous chez Implcit de travailler sur des méthodes en phase avec nos valeurs !
    Quel bonheur de ne pas être schizos !

    Janus, le dieu aux deux visages, divinité préférée des schizos 😝


  • Platon, la République et les algorithmes

    Platon, la République et les algorithmes

    Si vous m’avez connu avant Implcit, vous savez peut-être que j’ai cofondé Alenty en 2007. Et même si vous connaissez Alenty, vous ne savez certainement pas sur quelle base Alenty a été créée.

    En 2007, le javascript transformait le navigateur en véritable système d’exploitation et ouvrait de nouvelles possibilités. Nous avions passé un an à explorer tout ce qu’il était possible de faire, avec comme fil directeur une autre nouveauté de l’époque : les communautés.

    Nous avons donc développé une technologie de mesure des échanges dans les communautés. Pour mesurer ces échanges, nous avons développé une technologie d’analyse des blocs d’information dans les pages : les commentaires sont-ils lus ?
    C’est cette technologie qui, appliquée aux publicités au lieu des commentaires, a donné la première mesure de la visibilité publicitaire au monde !

    Mais revenons à l’autre partie de la technologie, qui a donné lieu à un brevet. Nous avons modélisé les échanges entre les membres d’une communauté. Un échange consiste à :

    • écrire un contenu
    • lire un contenu
    • noter un contenu…

    Notre système enregistrait des millions de signaux : « l’individu 1 lit un commentaire écrit par un individu 2, dans un article écrit par 3 ». La combinaison de ces signaux permettait de détecter les experts parmi une communauté.

    Comme vous insistez, voici l’algo, amusez-vous bien ! 🤓

    Une façon de résumer l’algorithme en langage humain revient à dire : si je suis expert sur un sujet, en passant du temps à lire ton contenu, je te donne un peu de mon poids d’expert. En commentant j’en donne un peu plus, en notant (positivement) encore un peu plus, et en notant (négativement) j’en retire.

    Le système mettait alors automatiquement en avant les avis des experts, et permettait rapidement d’avoir une idée de la pertinence d’une information.

    Fin 2007, Alenty a été sélectionné pour le grand prix de l’innovation de la ville de Paris. Comme le jury était composé d’élus, j’ai choisi une présentation originale de la solution.

    En me basant sur la République de Platon, j’ai comparé les média à des systèmes politiques. Ce que j’ai résumé dans ce tableau :

    Adjointe au maire, la présidente du jury, qui connaissait ses classiques, m’a dit que Socrate n’était pas un fan de la démocratie, qui selon lui, menait à l’anarchie puis à la dictature. Je lui ai répondu que je faisais l’hypothèse que pour nous, la démocratie était préférable à l’anarchie.

    Revenons-en à nos algos. Le succès de Google est venu de l’invention par Brin et Page du pageRank. Avant Google, le classement des résultats de recherche n’était pas pertinent. Notre algorithme suivait la même logique que le pageRank.

    Or, les réseaux sociaux, qui sont quelque part les successeurs des communautés de 2007, n’ont pas mis en place de méthode de qualification de la pertinence des contributions et de leurs auteurs.
    L’étalon de mesure est le nombre de followers. Tout le monde se vaut, y compris les bots, y compris les faux profils, y compris les indonésiens payés au clic, y compris les haters qui sont souvent les plus actifs, et donc les plus suivis.

    Les réseaux sociaux actuels sont ce qui s’apparente le plus à l’anarchie. Sans contrôle, autre que des armées de modérateurs, la seule règle qui s’applique est la chasse au volume. Et pour avoir du volume, l’outrance et la violence sont bien plus efficaces que la modération et l’empathie.

    Dans la page Wikipedia de la République de Platon, on peut lire « Au milieu de l’anarchie qui s’installe, le tyran va apparaître, se présentant tout d’abord comme un protecteur. Se sentant soutenu par la masse, et le pouvoir lui montant à la tête, il s’assure le soutien des classes moyennes en promettant de redistribuer les richesses en leur faveur. »

    Je n’ai jamais lu d’études au sujet du lien entre les algorithmes et la démocratie. Mais pour moi, la montée des extrêmes, la fascination croissante pour les dictateurs, la violence des réseaux sociaux, tous ces maux proviennent d’un mauvais choix d’algorithmes.

    Un algorithme donne le ton des usages. Je ne dis pas qu’avec notre algorithme, il y aurait moins d’extrémistes sur terre (je ne suis pas devenu brutalement mégalo), mais je pense qu’avec d’autres méthodes que des comptages de followers, les réseaux sociaux auraient pu faire naître des « représentants » au sein des communautés.
    Sans parler de réelles élections, ces représentants seraient certainement plus modérés. Leur donner de la visibilité aurait permis de garder les conditions au dialogue. Un peu de démocratie au lieu de l’anarchie.

    Internet a ouvert l’accès à la connaissance infinie. Les réseaux sociaux ont permis à chacun de s’exprimer. Mais faute de volonté d’organisation (qui est possible, on peut le voir dans l’exemple de Wikipedia), ils permettent, au mieux, de voir des vidéos de chats, au pire, d’appeler au meurtre de ceux qui ne pensent pas comme nous.

    D’un point de vue publicitaire, je ne comprends toujours pas comment les marques peuvent autant investir dans ces plateformes. Elles savent ce qui s’y passent, mais elles ne peuvent souvent pas vérifier dans quel contexte leurs publicités sont diffusées. Ou elles ferment les yeux sur leur responsabilité sociétale.

    En ces temps électoraux, quand on voit la facilité avec laquelle des contenus mensongers sont partagés, il faut absolument comprendre les mécanismes et les algorithmes qui orchestrent ce nouveau « média ».

    L’histoire jugera de la responsabilité de ces réseaux sociaux qui influent tellement sur nos vies.