Entre 2024 et 2026, l’intelligence artificielle a changé de statut : elle n’est plus seulement un outil d’innovation, mais une infrastructure de décision. Et lorsque l’arbitrage devient partiellement automatisable, la question centrale n’est plus “que peut faire la technologie ?”, mais qui répond, qui contrôle, et comment réparer quand un dommage survient.
Le basculement réel : la décision devient automatisable
Le lecteur francophone ne “voit” pas l’IA comme une prouesse. Il la rencontre sous forme de résultats : une candidature écartée, un service qui répond à côté, une information qui disparaît du radar, une priorisation automatique. Dans les faits, l’IA s’installe là où se décident des trajectoires : emploi, assurance/crédit, accès à l’information, parfois même la relation à l’administration.
Le point sensible n’est pas seulement l’erreur. C’est l’asymétrie : d’un côté, les organisations disposent du système et de ses traces d’audit ; de l’autre, l’individu reçoit un verdict sans toujours comprendre ce qui a pesé. Dès lors, une question classique d’État de droit revient au premier plan : la décision est-elle explicable, contestable, réparable ?
Éthique et droit : deux registres, une exigence commune
L’éthique joue un rôle essentiel : elle fixe ce que la société juge acceptable (équité, dignité, non-discrimination, transparence, prudence). Elle donne le cap.
Mais à l’échelle industrielle, l’éthique seule peut devenir un décor : chartes, valeurs, communication. Le droit change la nature du problème : il impose des obligations vérifiables, organise la responsabilité, et rend possible le recours. En clair : l’éthique peut inspirer ; le droit doit contraindre.
2024–2026 : la preuve par les jalons (du discours à l’exécution)
Pour mesurer l’accélération, il faut regarder les dates et les textes.
21 mars 2024 : l’ONU place l’IA au niveau global.
L’Assemblée générale adopte la résolution A/RES/78/265 sur les opportunités de systèmes d’IA “sûrs, sécurisés et dignes de confiance” pour le développement durable. Ce n’est pas un instrument contraignant, mais c’est un marqueur : l’IA n’est plus un sujet sectoriel, elle devient une question de gouvernance mondiale.
28 mars 2024 : aux États-Unis, la doctrine fédérale s’organise pour l’usage public.
Le mémorandum OMB M-24-10 fixe des exigences de gouvernance et de gestion des risques pour l’usage de l’IA par les agences fédérales, notamment lorsque des droits ou la sécurité du public sont en jeu.
13 juin 2024 : l’Europe transforme la prudence en règle du jeu.
Avec le Règlement (UE) 2024/1689 (AI Act), l’Union européenne inscrit l’IA dans un cadre harmonisé, fondé sur le risque, publié au Journal officiel le 12 juillet 2024.
26 juillet 2024 : la gouvernance devient une ingénierie du risque.
Le NIST publie NIST.AI.600-1, un profil dédié à la gestion des risques de l’IA générative : le signe que l’on quitte le registre des principes généraux pour entrer dans la méthode, la documentation et l’outillage des organisations.
10 juillet 2025 : l’Union européenne passe au “mode d’emploi” de la conformité.
La Commission européenne annonce la disponibilité d’un Code de pratique pour l’IA à usage général (GPAI) : un instrument volontaire, conçu pour aider les acteurs à s’aligner sur les obligations du cadre européen. Il est structuré en trois chapitres (transparence ; droit d’auteur ; sécurité & sûreté) et s’inscrit dans une logique de démonstration de conformité, avec une échéance structurante : règles GPAI applicables au 2 août 2025.
21 février 2026 : la gouvernance se joue aussi en coalitions.
Après son AI Impact Summit (18–19 février 2026), l’Inde officialise l’adoption d’une “New Delhi Declaration on AI Impact” (publication datée du 21 février 2026). Sur le plan stratégique, cela dit une chose : l’IA devient un terrain d’alignements et de ralliements, pas seulement une compétition d’ingénieurs.
Ce jalon signale aussi l’entrée plus visible du “Sud global” dans la fabrique des normes et des coalitions autour de l’IA.
Lire aussi: Intelligence artificielle : en France, l’enjeu d’une régulation au-delà de la conformité juridique
Le point dur : qui répond quand le système fait dommage ?
Tous les cadres finissent par buter sur la même question : l’imputabilité.
Le fournisseur du modèle ? L’éditeur ? L’intégrateur ? L’employeur ou l’administration qui déploie ? Le décideur qui s’abrite derrière un score ?
Dans ce flou, l’avantage tend à aller à celui qui maîtrise le système et la procédure ; d’où l’urgence d’une exigence de preuve opposable pour le citoyen.
Une gouvernance crédible doit clarifier la chaîne : qui est responsable de quoi, qui doit prouver, qui doit corriger, qui doit indemniser. Sans cela, la confiance restera un mot commode, pas une réalité.
Trois garanties doivent devenir non négociables :
1. Explicabilité utile (comprendre l’essentiel, sans jargon)
2. Contestabilité réelle (un recours praticable, pas symbolique)
3. Réparabilité effective (corriger et compenser quand un dommage est avéré)
Lecture stratégique : la norme est devenue un instrument de puissance
Dans ce paysage, la régulation n’est pas seulement un frein : elle devient un levier. La norme fixe les coûts de conformité, organise la crédibilité, influence l’accès au marché et impose un standard de confiance. Ceux qui écrivent la règle ne contrôlent pas seulement le droit : ils structurent la compétitivité et la légitimité.
Le sujet n’est plus “pour ou contre l’IA”. Il est : quelle IA voulons-nous rendre normale ?
Une IA qui accélère les procédures, oui. Mais à condition d’installer une règle simple et exigeante : ce qui décide doit pouvoir se justifier, se contester et se réparer.
La séquence 2024–2026 a tranché : l’IA ne se raconte plus, elle se démontre.
Références
1. Nations unies — Assemblée générale, Résolution A/RES/78/265, adoptée le 21 mars 2024.
2. Union européenne — Règlement (UE) 2024/1689 (AI Act), adopté le 13 juin 2024, publié au JO le 12 juillet 2024.
3. États-Unis — OMB Memorandum M-24-10, Advancing Governance, Innovation, and Risk Management for Agency Use of Artificial Intelligence, 28 mars 2024.
4. États-Unis — NIST.AI.600-1, Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile, 26 juillet 2024.
5. Commission européenne — General-Purpose AI Code of Practice now available, 10 juillet 2025 (chapitres transparence / droit d’auteur / sécurité & sûreté ; règles GPAI applicables 2 août 2025).
6. Inde — Ministry of External Affairs, AI Impact Summit 2026 concludes with adoption of New Delhi Declaration, 21 février 2026.
7. Inde — Ministry of External Affairs, AI Impact Summit Declaration, New Delhi (February 18–19, 2026), 21 février 2026.
