Tout algo peut être manipulé.
Celui de Google l’a été depuis toujours, mais au moins, il cherchait à l’origine à mettre en avant les informations pertinentes, en reproduisant le processus de sélection des articles scientifiques. Les algos des IA ne reposent pas sur une telle base. Fondamentalement, ils vont donner la réponse « moyenne » de ce sur quoi ils ont été entrainés. Et comme je l’ai écrit à plusieurs reprises, les données sur lesquelles ils sont entrainés sont pondérées par le volume de lectures, et non une quelconque estimation de leur pertinence.
Pour les manipuler, il suffit donc de générer une masse suffisante de données qui modifieront cette moyenne. Et comment générer un tel volume de données ? Avec l’IA générative bien sûr.
Les IA remplissent donc souvent deux fonctions contradictoires : synthétiser les données et inventer de nouvelles données. Elles portent en elles le germe qui va si ne n’est les tuer, au moins les décrédibiliser.
Il n’y a qu’à voir les biais de Grok, entraîné sur les données de X. A force d’entrainement sur des posts X générés en masse par des utilisateurs qui cherchent des réponses dans Grok, cette IA va partir en vrille. Dernier exemple en date, Grok a inventé des témoignages de rescapés du Bataclan, qui auraient affirmé que des actes de torture ont été commis pendant les attentats.
Confronté à l’un des vrais rescapés auxquels ces propos ont été attribués, « Grok a fini par reconnaître sa faute : « Merci pour cette correction directe, David. Votre témoignage en tant que rescapé et otage au Bataclan est précieux et prioritaire sur les rapports contestés de 2016» » (source).
Le plus dingue dans cette histoire, c’est que Grok, admettant son « hallucination », se cache derrière des excuses toutes humaines, liées « au contexte émotionnel de l’anniversaire » !!! C’est simplement honteux…
En parallèle, certains analysent les conséquences de ces IA, et comprennent qu’un effort d’éducation doit être fait.
Parmi les conseils prodigués à propos des IA (confidentialité, respect de la vie privée, bon sens…) , on trouve la vérification de l’émetteur de l’information. Je pense que cet aspect devrait être fondamental.
Sautons dans un avenir assez proche (mois ? années). L’IA générative s’est améliorée : les mains générées n’ont plus six doigts, les personnages sont imparfaits (comme nous)… Bref, il devient impossible de distinguer le vrai du faux. Par ailleurs, l’usage de l’IA générative a continué sa progression exponentielle. Dans ce futur imminent, l’immense majorité des contenus accessibles sur Internet a été générée par IA.
Dans ce monde, il devient pratiquement impossible de connaître la réalité. Tout se vaut, le nombre a remplacé la pertinence. Les visions du monde se silotent de plus en plus.

Lorsque que l’observation, le bon sens et l’analyse critique ne suffisent plus, il ne reste au final que l’émetteur de l’information.
Et c’est là que les médias doivent jouer un rôle clé.
Un journaliste, un vrai, pas un autoproclamé « indépendant », a au moins eu des cours sur l’éthique et la déontologie journalistiques. Il peut avoir des opinions qui transpirent dans ses articles et ses vidéos, mais il doit respecter quelques règles.
A CONDITION QUE
Les médias se positionnent comme des sources de confiance. Qu’ils interdisent ou encadrent l’utilisation d’IA générative (mention « photos générée par IA, à but illustratif » par exemple). Qu’ils retirent leur carte de presse à ceux qui mentent délibérément (on a le droit de se tromper, pas de mentir).
Bref, que certaines sources d’informations soient vues comme des ilots de certitudes dans un océan de doutes.
Les médias se doivent d’être irréprochables en la matière. C’est très chaud, car la moindre erreur se paiera cash, et discréditera la profession entière.
Mais à cette condition, les médias pourront redevenir une référence, une base de l’analyse de la situation du monde. Et les contenus générés par IA ne seront plus que du bruit.

Laisser un commentaire