Authentifier le réel : la nouvelle bataille stratégique de l’ère synthétique
À l’ère des contenus générés par intelligence artificielle, la bataille de l’information change de nature. Il ne s’agit plus seulement de lutter contre la désinformation, mais de garantir l’authenticité du réel lui-même. Provenance des contenus, standards techniques et architectures de confiance deviennent les nouveaux enjeux stratégiques de la souveraineté numérique.
En 2024, un salarié d’une grande entreprise internationale a été piégé lors d’une visioconférence truquée par deepfake et a validé des transferts totalisant près de 25 millions de dollars. Le fait divers est révélateur d’une mutation plus profonde. Dans l’espace numérique contemporain, le problème n’est plus seulement de débusquer le faux, mais de préserver les conditions de possibilité du vrai. Lorsque textes, voix, images et vidéos peuvent être produits à l’échelle industrielle, la bataille de l’information devient une bataille de la preuve, de la provenance et, au fond, de la confiance. [1]
Le problème central du numérique n’est donc plus seulement la désinformation. Il est devenu plus radical : préserver les conditions de possibilité du vrai dans un environnement où texte, image, audio et vidéo peuvent être générés à grande échelle par des systèmes d’intelligence artificielle.
Pendant longtemps, la question dominante était celle de la diffusion de l’information. Aujourd’hui, le défi est différent: comment certifier l’origine d’un contenu dans un univers où le faux peut être produit industriellement ?
Les chercheurs qui travaillent depuis des années sur la forensique numérique l’avaient anticipé. Hany Farid, professeur à l’Université de Californie à Berkeley, est l’un des spécialistes internationaux de l’analyse d’images manipulées et de la désinformation visuelle. Siwei Lyu, à l’Université de Buffalo, mène des recherches sur la détection algorithmique des deepfakes et des falsifications numériques. Le constat partagé par ces travaux est clair : les technologies de génération progressent rapidement tandis que les outils de détection restent imparfaits. [2][3]
Cette asymétrie technologique transforme profondément l’économie de l’information. Claire Wardle et Hossein Derakhshan ont montré, dans leur rapport fondateur pour le Conseil de l’Europe, que la pollution informationnelle ne repose pas uniquement sur le mensonge direct mais sur des environnements complexes mêlant misinformation, disinformation et malinformation. [4]
Dans ce contexte émerge une nouvelle priorité technique : la provenance des contenus.
Plutôt que de tenter uniquement de détecter le faux, l’objectif devient de retracer l’histoire d’un contenu : qui l’a créé, avec quel outil et quelles transformations ont été apportées. Le standard C2PA (Coalition for Content Provenance and Authenticity) vise précisément à associer à chaque fichier un registre vérifiable retraçant sa chaîne de production. Les Content Credentials permettent ainsi de rendre visible l’origine et l’historique d’un contenu numérique. [5][6]
Ces initiatives sont soutenues par un large écosystème industriel et médiatique. Mais elles ne constituent pas une panacée. Les métadonnées peuvent être supprimées et la traçabilité peut être perdue au cours de la circulation d’un contenu sur les plateformes.
Sam Gregory, de l’organisation WITNESS, alerte depuis plusieurs années sur le phénomène du liar’s dividend : la possibilité pour un acteur de discréditer une preuve authentique en affirmant qu’elle a été falsifiée par intelligence artificielle. Le danger n’est donc plus seulement la fabrication du faux ; c’est aussi l’érosion de la valeur probatoire du vrai. [7]
C’est à ce stade que le problème devient pleinement stratégique. Dans le monde analogique, la bataille portait sur la diffusion des récits. Dans le monde numérique, elle porte désormais sur la certification du réel.
Les réponses politiques commencent à apparaître. L’Union européenne a adopté l’AI Act, premier cadre réglementaire global sur l’intelligence artificielle, entré en vigueur en 2024. Les États-Unis privilégient une approche plus souple fondée sur la gestion des risques et les standards techniques, notamment à travers le NIST AI Risk Management Framework. [8][9]
Le Maroc se trouve lui aussi à un moment stratégique. Le pays dispose déjà de briques juridiques importantes : la loi 09-08 relative à la protection des données personnelles et la loi 43-20 sur les services de confiance pour les transactions électroniques. L’enjeu dépasse désormais l’adaptation réglementaire : il s’agit de participer à la construction des architectures de confiance qui structureront l’économie numérique mondiale. [10][11]
Car la compétition autour de l’intelligence artificielle ne se joue pas uniquement sur la puissance de calcul ou la performance des modèles. Elle se joue sur un terrain plus fondamental : la capacité à attester la réalité des informations.
Dans l’économie de l’information qui s’ouvre, la souveraineté ne dépendra pas seulement de la capacité à produire des algorithmes. Elle dépendra de la capacité à garantir la confiance.
Sources et références
[1] Financial Times, Arup lost $25mn in Hong Kong deepfake video conference scam, 17 mai 2024.
[2] Hany Farid, University of California Berkeley – Digital Forensics Research.
https://farid.berkeley.edu
[3] Siwei Lyu, University at Buffalo – Media Forensics and Deepfake Detection.
https://www.buffalo.edu
[4] Claire Wardle & Hossein Derakhshan, Information Disorder, Conseil de l’Europe.
https://www.coe.int
[5] Coalition for Content Provenance and Authenticity (C2PA).
https://c2pa.org
[6] Content Credentials Initiative.
https://contentcredentials.org
[7] Sam Gregory – WITNESS – travaux sur le liar’s dividend.
https://www.witness.org
[8] Commission européenne – Artificial Intelligence Act.
https://commission.europa.eu
[9] NIST – AI Risk Management Framework.
https://www.nist.gov
[10] Maroc – Loi 09-08 relative à la protection des données personnelles.
[11] Maroc – Loi 43-20 relative aux services de confiance pour les transactions électroniques.
