Étiquette : media

  • Les fake news générées par IA, la bouée de sauvetage des médias ?

    Les fake news générées par IA, la bouée de sauvetage des médias ?

    Tout algo peut être manipulé.

    Celui de Google l’a été depuis toujours, mais au moins, il cherchait à l’origine à mettre en avant les informations pertinentes, en reproduisant le processus de sélection des articles scientifiques. Les algos des IA ne reposent pas sur une telle base. Fondamentalement, ils vont donner la réponse « moyenne » de ce sur quoi ils ont été entrainés. Et comme je l’ai écrit à plusieurs reprises, les données sur lesquelles ils sont entrainés sont pondérées par le volume de lectures, et non une quelconque estimation de leur pertinence.

    Pour les manipuler, il suffit donc de générer une masse suffisante de données qui modifieront cette moyenne. Et comment générer un tel volume de données ? Avec l’IA générative bien sûr.

    Les IA remplissent donc souvent deux fonctions contradictoires : synthétiser les données et inventer de nouvelles données. Elles portent en elles le germe qui va si ne n’est les tuer, au moins les décrédibiliser.

    Il n’y a qu’à voir les biais de Grok, entraîné sur les données de X. A force d’entrainement sur des posts X générés en masse par des utilisateurs qui cherchent des réponses dans Grok, cette IA va partir en vrille. Dernier exemple en date, Grok a inventé des témoignages de rescapés du Bataclan, qui auraient affirmé que des actes de torture ont été commis pendant les attentats.
    Confronté à l’un des vrais rescapés auxquels ces propos ont été attribués, « Grok a fini par reconnaître sa faute : « Merci pour cette correction directe, David. Votre témoignage en tant que rescapé et otage au Bataclan est précieux et prioritaire sur les rapports contestés de 2016»  » (source).

    Le plus dingue dans cette histoire, c’est que Grok, admettant son « hallucination », se cache derrière des excuses toutes humaines, liées « au contexte émotionnel de l’anniversaire » !!! C’est simplement honteux…

    En parallèle, certains analysent les conséquences de ces IA, et comprennent qu’un effort d’éducation doit être fait.

    Parmi les conseils prodigués à propos des IA (confidentialité, respect de la vie privée, bon sens…) , on trouve la vérification de l’émetteur de l’information. Je pense que cet aspect devrait être fondamental.

    Sautons dans un avenir assez proche (mois ? années). L’IA générative s’est améliorée : les mains générées n’ont plus six doigts, les personnages sont imparfaits (comme nous)… Bref, il devient impossible de distinguer le vrai du faux. Par ailleurs, l’usage de l’IA générative a continué sa progression exponentielle. Dans ce futur imminent, l’immense majorité des contenus accessibles sur Internet a été générée par IA.

    Dans ce monde, il devient pratiquement impossible de connaître la réalité. Tout se vaut, le nombre a remplacé la pertinence. Les visions du monde se silotent de plus en plus.

    Lorsque que l’observation, le bon sens et l’analyse critique ne suffisent plus, il ne reste au final que l’émetteur de l’information.

    Et c’est là que les médias doivent jouer un rôle clé.

    Un journaliste, un vrai, pas un autoproclamé « indépendant », a au moins eu des cours sur l’éthique et la déontologie journalistiques. Il peut avoir des opinions qui transpirent dans ses articles et ses vidéos, mais il doit respecter quelques règles.

    A CONDITION QUE

    Les médias se positionnent comme des sources de confiance. Qu’ils interdisent ou encadrent l’utilisation d’IA générative (mention « photos générée par IA, à but illustratif » par exemple). Qu’ils retirent leur carte de presse à ceux qui mentent délibérément (on a le droit de se tromper, pas de mentir).

    Bref, que certaines sources d’informations soient vues comme des ilots de certitudes dans un océan de doutes.

    Les médias se doivent d’être irréprochables en la matière. C’est très chaud, car la moindre erreur se paiera cash, et discréditera la profession entière.

    Mais à cette condition, les médias pourront redevenir une référence, une base de l’analyse de la situation du monde. Et les contenus générés par IA ne seront plus que du bruit.

  • Machine-learning ou Human-learning ?

    Machine-learning ou Human-learning ?

    L’industrie des média n’est pas radicalement différente des autres. La révolution de l’IA y est à l’œuvre depuis longtemps. Et pas seulement l’IA générative qui fait le buzz, mais l’IA « dure », celle qui calcule, fait des statistiques…

    La complexité des signaux que l’on peut traiter en publicité digitale, et l’imprédictibilité de l’être humain (je crois que c’est dans Amphitryon 38 qu’il est dit que le meilleur endroit pour qu’un dieu se cache, c’est l’âme humaine, tellement elle est complexe) font de la publicité est sujet d’étude plus intéressant qu’on ne le croit souvent.

    De plus, ce qui est vrai pour le média digital ne l’est pas pour la télévision, la presse, l’affichage voire la radio, où les données sont beaucoup plus rares.

    Une marque peut dire : je connais ma cible, ce sont des femmes qui achètent des parfums et sont sensibles à l’écologie.

    Un informaticien peut dire : moins j’ai d’a priori au départ, plus je garde de possibilités d’optimisation.

    Qui a raison ?

    A un certain niveau de complexité, nos neurones atteignent leurs limites. Seules des machines peuvent tout traiter, corréler, analyser et piloter.

    Doit-on pour autant laisser les clés de sa voiture à une machine ?

    Comme me l’avait dit Nico (mon cofondateur préféré, Alenty et Implcit), « avec la publicité, on ne sauve pas de vie, mais au moins on ne tue personne ». Les enjeux ne sont donc pas aussi importants que dans la conduite autonome.

    Mais pour les personnes qui pilotent les stratégies média, si elles ne perdent pas la vie, elles peuvent perdre leur job ou leur prime en cas d’erreur.

    Selon Descartes, « le bon sens est la chose du monde la mieux partagée ». On interprète souvent mal cet aphorisme. « La mieux partagée » signifie que certains n’en ont pas beaucoup, et non que tout le monde en a.

    Mais si certains humains peuvent d’avoir que peu de bon sens, au moins en ont-ils un peu. Ce qui n’est pas le cas des machines.

    J’ai déjà montré comme ChatGPT est moins bon qu’un élève de CE1 pour faire des additions. Une machine n’a aucun bon sens. Elle fera ce qu’on lui dit de faire, bêtement, sans prendre de recul. Quel humain aurait viré 81 000 milliards de dollars sur un compte de particulier ?

    Les machines peuvent donc se tromper et doivent toujours être surveillées.

    En publicité digitale, les optimisations sont souvent difficiles à comprendre. Par exemple, chez Implcit, on modélise les populations performantes pour une campagne (cliqueurs, visiteurs, etc.) à partir des remontées réelles. Ce profil d’individus performants est complexe : il peut être décrit à l’aide de milliers de critères : profil socio-démographique, comportement, centres d’intérêts, etc.

    Mais quand bien même il ne peut pas se résumer à une caractéristique humainement compréhensible, ce profil multiforme devient, dans notre système, la nouvelle population à cibler.

    Et les performances sont là, comme on peut le voir dans cette analyse :

    On pourrait donc dire que le machine-learning l’emporte sur le human-learning.

    Et bien je ne le pense pas. Les deux doivent coexister.

    Premièrement, parce que le machine-learning ne travaille que sur les objectifs qu’on lui a donnés. Par exemple, les clics sont-ils vraiment le but ultime de la marque ? La machine peut donc fournir d’excellents résultats sur le mauvais objectif.

    Deuxièmement parce que les algorithmes sont trop souvent des boites noires. Mon argument ci-dessus sur la complexité des profils performants reste vrai. Mais ça ne doit pas interdire au donneur d’ordre d’en apprendre plus.

    Et sur ce point, les pires algorithmes sont les réseaux de neurones, ceux qui font le deep learning et l’IA générative. Par construction, il leur est impossible d’expliquer pourquoi ils ont pris telle ou telle décision (sauf à développer une IA dédiée à trouver cette explication).

    En conclusion, l’humain a encore son mot à dire.
    En amont d’une campagne, il va choisir des persona qu’il souhaite toucher. Que ces persona soient définis à partir de données complexes n’est pas incompatible avec un choix stratégique qui peut même aller à l’encontre des chiffres (ne serait-ce que pour se différencier).
    En cours de campagne, les remontées d’informations humainement compréhensibles peuvent permettre de rattraper des erreurs. Mais peut-être plus important encore, de construire de la confiance envers le système.
    Enfin, après une campagne, l’humain doit s’approprier les enseignements. La publicité n’est qu’un élément dans la stratégie d’un produit. Les évolutions du produit, les messages, les tactiques média, tout doit se combiner.

    Car in fine, ce sont des humains qui prennent les grandes décisions.

  • L’IA générative une chance pour les média ?

    L’IA générative une chance pour les média ?

    Depuis des années, des contenus sont automatiquement générés lors des élections locales par exemple. A partir des décomptes de votes, il est possible de générer de petits textes pour chaque département, chaque ville, voire chaque bureau de vote. Pas de l’IA, mais de la génération de textes qui simplifient le travail des journalistes.

    ChatGPT a ouvert les yeux du public à d’autres applications. Des textes plus complets, des points de vue plus orientés, voire de la véritable création d’opinions ! On imagine donc que des journaux vont utiliser ChatGPT pour générer des contenus semi-automatisés.

    La génération d’images avec des outils comme MidJourney ou Criayon a aussi fait grand bruit. Il est souvent aujourd’hui difficile de détecter ces images 100% artificielles. Bon d’accord, il y a parfois quelques doigts de trop à une main, mais ça passe souvent inaperçu.

    Côté vidéo, dès 2019, un deep fake remplaçait le visage de Jack Nicholson par celui de Jim Carrey. De nombreux ‘autres exemples sont venus récemment montrer le potentiel et la dangerosité de ces outils.

    On pourrait donc penser que les média vont très vite se saisir des nouvelles technologies, et faire générer par ordinateur des textes, des images (ça coûte cher un photographe), et des vidéos (c’est dangereux le métier de reporter de guerre !).

    Mais non, je pense que c’est tout le contraire qui va se passer.

    Vous savez peut-être comme je suis attaché à la lutte contre la désinformation scientifique, sociale et politique. C’est je pense l’un des plus grands dangers pour nos démocraties.

    Ce ne sont pas les journalistes qui vont le plus s’accaparer ces outils. Ce sont ceux qui n’ont justement pas les principes déontologiques des journalistes. Les technologies génératives vont pulluler sur les réseaux sociaux, les sites conspirationnistes.

    Pourquoi ? Justement parce qu’elles s’affranchissent de la vérité. Elles sont intrinsèquement faites pour créer des vérités alternatives, voire des mensonges, donc des fake news.

    Que va-t-il donc se passer ? Une prolifération illimitée de contenus créés, plus vrais que nature. Il ne sera pas possible de distinguer le vrai du faux (le problème du nombre de doigts n’est que transitoire). Plus encore que maintenant, l’accent sera mis sur l’émotion, au détriment de la raison. Plutôt que de suggérer que Macron et Céline Dion se repaissent de sang d’enfants sacrifiés pour l’élite (le mythe de l’adrénochrome, présenté dans TPMP sans que M. Anouna ne le démonte), on montrera une vidéo où les intéressés sont pris la main dans le sac.

    « Vu à la télé », vous vous souvenez de ces étiquettes qui fleurissaient sur les packagings ? « C’est vrai, je l’ai vu sur Internet » disons-nous depuis 20 ans. Plus aucun de ces mantras n’aura peut-être de sens à l’avenir.

    Qui croira-t-on alors ? On croira ses proches (cet aspect ne disparaîtra pas). Certains, pourfendeurs de l’ordre établi, croiront les sources qui corroborent leurs points de vue. Mais la grande majorité ne croira plus grand-monde au final.

    C’est là qu’intervient la fiabilité des sources. On ne croira plus que ceux en qui on peut avoir confiance.

    La démocratisation de l’accès puis de la génération de l’information ont créé les deux premières grandes périodes de l’internet. On a atteint aujourd’hui les limites de ce système. Certains disent déjà : pourquoi croire un journaliste (payé pour écrire, par des journaux eux-mêmes financés par des milliardaires ou des états) plutôt qu’un individu lambda, seulement mu par sa volonté de faire éclater la vérité ?

    Cela correspond je trouve à un aspect de la République de Platon : la démocratie dégénère en anarchie. Dans un précédent article, j’avais pointé la responsabilité des algorithmes des réseaux sociaux dans cette évolution. Cette responsabilité se voit maintenant amplifiée par l’IA générative.

    A force de dire que tout le monde se vaut, plus personne n’a de valeur. Lorsqu’il y aura tellement de contenus crédibles que tout et son contraire pourra être cru, plus rien n’aura d’importance.

    Il se peut alors, je croise les doigts, que des marques média, à condition qu’elles mettent en avant leur déontologie, redeviennent des sources fiables auxquelles il faudra se référer.

    Non pas pour les irrécupérables qui ne comprennent que ce qu’ils veulent comprendre.
    Mais pour ceux, sincères, qui s’intéressent, qui cherchent à rationaliser le monde, qui critiquent ce qu’ils voient et ne croiront plus tout ce qu’on leur montre, pour ceux là, les média redeviendront une source de confiance.

    En politique, la démocratie me semble un meilleur système que l’oligarchie. Mais à l’ère de l’anarchie créée par l’intelligence artificielle générative et les réseaux sociaux, le système oligarchique, où certains ont plus de crédibilité (les média, avec des contenus sourcés, vérifiés et passés au crible de principes déontologiques), un tel système peut nous protéger des réalités alternatives, des mensonges et des fake news.

  • Pourquoi parle-t-on encore de média social ?

    Pourquoi parle-t-on encore de média social ?

    Lorsque Facebook est arrivé sur le marché publicitaire, son modèle économique était loin d’être arrêté.

    On disait alors que Facebook allait réinventer de nouveaux modèles. Les partages de contenus apportaient une audience gratuite aux éditeurs. La publicité elle-même pouvait en bénéficier, on parlait de « earned media » (le média qu’on ne paie pas à Facebook).

    Puis Facebook a « inventé » la publicité dans le flux « infeed ». En fait, c’est juste de la publicité « native ». Souvenez-vous, avant ça, on appelait ça « publi-rédactionnel » il y a 20 ans, de la publicité déguisée en contenu, et la distinction devait être claire entre le contenu et la pub. Ce n’est plus tellement le cas.

    Ensuite, Facebook a introduit des pastilles publicitaires dans les vidéos. En fait, de simples midrolls. L’automatisation du process a plus répondu à des impératifs de volumes que de qualité.
    Quid de la qualité de l’expérience utilisateur lorsqu’une vidéo est coupée arbitrairement ? Avec les capacités d’analyse automatiques de Facebook, ils auraient pu détecter les moments de pause dans les vidéos. Non, on coupe, et comme on sait qu’on a interrompu la vidéo potentiellement au milieu d’une phrase, on reprend quelques secondes en arrière.
    Quid de la qualité du message publicitaire ? Lorsque ces pastilles, dont la durée est fixée à 6 secondes, sont faites automatiquement avec des vidéos publicitaires plus longues, tronquées à 6 secondes ? Je ne compte plus les vidéos que j’ai vues sur Facebook, coupées arbitrairement pour diffuser une publicité elle-même coupée arbitrairement !

    D’ailleurs, je ne vois plus ces midrolls dans les vidéos Facebook. Seules les publicités natives ont l’air de continuer.

    Revenons-en au earned media. Lorsque Facebook a mis à jour son algorithme pour, officiellement, donner plus de visibilité aux contenus générés par nos amis, l’objectif était (à mon avis) de forcer les annonceurs à payer. On ne peut pas se tirer une balle dans le pied indéfiniment !

    Exit donc, la dimension « réseau » de la publicité sur Facebook !

    Facebook fait maintenant de la publicité classique, des bannières et surtout des vidéos, camouflées en contenus (« natives »).
    Sa vraie force tient à son ciblage. Avec une audience à 100% loguée, avec des informations de profil globalement bien renseignées (quel intérêt aurait-on à mentir à ses amis et à sa famille ?), Facebook peut vendre de la publicité ciblée.

    Qu’est-ce qui différencie encore Facebook de n’importe quel média ? Qu’est-ce qui justifie que Facebook soit appelé « media social » ? Pour ma part je ne vois pas.

    Le constat est le même pour Youtube. Le site entre dans la catégorie « media social » alors que les publicités sont de simples prerolls ciblés.

    Social voudrait-il dire « généré par les utilisateurs » ? Même pas ! De plus en plus de contenus sont professionnels, et partagés sur ces sites pour profiter de leur audience. La seule différence c’est que Facebook et Youtube ne paient pas directement les créateurs de contenus. Tout au plus partagent-ils les revenus publicitaires générés.

    On a donc d’un côté des média qui paient a priori des producteurs de contenus (aussi appelés souvent journalistes) et de l’autre des média qui paient a posteriori leurs producteurs de contenus (aussi appelés influenceurs 😉). Cette différence de modèles économiques justifie-t-elle de créer une poche différente du marché publicitaire ?

    Où est le social là-dedans ?

    Le search (Google en d’autres termes) est à la fois un modèle économique différent, un support spécifique (page de recherche générée par Google) et des créations particulières (les annonces textuelles). Séparer le search du reste peut se justifier.

    De même, les petites annonces sont aussi suffisamment différentes du reste de l’économie digitale. Il n’y a pas de contenu, la publicité est le contenu.

    Idem pour l’emailing. Un support, un modèle économique et des messages spécifiques.

    Mais « média sociaux » ? Pourquoi ?

    Facebook et Google sont des réseaux sociaux. Mais pour l’industrie publicitaire ils ne devraient pas être appelés média sociaux. Les appeler « média » aiderait peut-être à clarifier leur responsabilité éditoriale.

    Diversity People Connection Digital Devices Browsing Concept