On parle maintenant de l’IA générative (de texte, d’image voire de vidéos), mais ça fait très longtemps que l’on modifie, truque ou invente grâce aux technologies.
La seule vraie révolution c’est la démocratisation des outils.
N’importe qui peut depuis des dizaines d’années copier-coller des textes depuis une source externe, supprimer le contexte, modifier certains mots, voire inventer des citations entières !
Mais ça demande du boulot. Il faut trouver l’information (avant internet, cette étape demandait beaucoup de ressources), savoir écrire. Bref, avoir du temps.
Les modifications d’images existent aussi depuis des dizaines d’années. Il faut des outils un peu costauds (photoshop par exemple), donc savoir les utiliser, et ça prend du temps aussi.
Les trucages vidéos ont toujours existé, mais avec un réalisme discutable (sauf à utiliser sa propension naturelle à rêver pour se croire sur la Lune avec Mélies) et des moyens importants. Les capacités de calculs décuplées remplissent maintenant les génériques de centaines de nouveaux noms (ingénieurs, graphistes digitaux, etc.).

Bref, la manipulation des textes, des images et des vidéos n’a pas attendu l’IA.
Et les critiques non plus n’ont pas attendu l’IA. On le sait depuis des années, les photos retouchées de mannequins créent un idéal féminin inaccessible (sauf à s’étirer les jambes pour qu’elles mesurent deux mètres).

Le législateur a donc tranché en imposant la mention “photo retouchée” lorsque l’image n’est pas naturelle. Mais comme les images ne sont jamais naturelles, la mention est systématiquement ajoutée, donc plus personne ne la voit, et elle ne sert donc à rien.
Il faut donc aller plus loin.
Je pense qu’il faut que des métadonnées standardisées soient insérées dans les photos et les vidéos.
Les logiciels auraient un label s’ils mettent ces infos systématiquement. Il ne serait pas possible de les retirer, sauf à faire des copies d’écran. Seuls des logiciels pirates permettraient de frauder, mais leurs capacités devraient rester inférieures aux logiciels pros. Une nomenclature par exemple de 0 à 10 pourrait être inventée :
– 0 : image (ou vidéo non retouchée)
– 1 : contraste, luminosité
– 2 : couleurs modifiées (global)
– 3 : déformations de l’image (global)
– 4 : couleurs modifiées sur certaines zones
– 5 : déformations de certaines zones (jambes de mannequin allongées par exemple)
– 6 : suppression d’éléments
– 7 : ajout d’éléments
– 8 : plus de 50% des éléments sont ajoutés
– 9 : image générée par un humain assisté par une IA
– 10 : image 100% générée par une IA
Tous les supports d’affichage pourraient lire et montrer ce score et ce qu’il signifie. Un navigateur pourrait en clic droit fournir cette information par exemple.
Cette méthode ne tuerait évidemment pas ces méthodes de désinformation. Mais elle les rendrait plus difficiles à utiliser dans des buts de tromperie.
Comme je le disais au début, la vraie révolution c’est la démocratisation.
Gardons la démocratisation pour ceux qui n’ont rien à cacher, et qui accepteront que leurs modifications soient si ce n’est visibles, au moins identifiables.
Et rendons un peu plus difficile la vie de ceux qui cherchent délibérément à tromper.
Par ailleurs, j’aimerais voir des plateformes qui engloutissent des milliards pour générer des contenus réalistes, en investir un faible pourcentage pour informer leurs utilisateurs.
Je trouve une telle fonctionnalité vitale pour notre société attaquée par des fake news de tous types…