Etats vs Big Tech : qui contrôle vraiment l’intelligence artificielle ?
L’intelligence artificielle n’est plus seulement une affaire de technologie. Elle est devenue une question de pouvoir.
Le débat public continue pourtant de se concentrer sur l’innovation, la régulation, la compétitivité et la productivité. Ces dimensions comptent. Mais elles ne disent plus l’essentiel. La question décisive est désormais la suivante : qui contrôle les conditions dans lesquelles l’information est structurée, hiérarchisée et transformée en décision ?
À partir de là, l’IA change de nature. Elle cesse d’être un simple outil. Elle devient une médiation stratégique entre le réel et l’action. Or toute médiation dominante finit, tôt ou tard, par toucher à l’autorité.
C’est là que le débat contemporain reste en retard sur son objet. Les États continuent d’apparaître comme les acteurs centraux. Ils légifèrent, investissent, annoncent des stratégies nationales et invoquent la souveraineté numérique. Leur souveraineté juridique demeure. Mais la souveraineté juridique ne recouvre pas toujours la souveraineté fonctionnelle.
Car, dans les faits, une partie croissante des couches critiques de l’IA — cloud, capacités de calcul, modèles fondamentaux, interfaces et standards techniques — est concentrée entre les mains d’un nombre limité d’acteurs industriels. Le Stanford AI Index 2025 souligne que près de 90 % des modèles d’IA notables en 2024 provenaient de l’industrie, contre 60 % en 2023. Le même rapport indique aussi que le compute d’entraînement des modèles notables continue de croître très rapidement, à un rythme de doublement d’environ cinq mois. 
Nous sommes donc entrés dans une configuration nouvelle : une tension entre souveraineté institutionnelle et puissance d’infrastructure.
Les États conservent le droit, la légitimité politique, la coercition, la diplomatie et la sécurité nationale. Les Big Tech, elles, concentrent l’infrastructure, la vitesse d’exécution, l’innovation appliquée, les interfaces d’accès et, de plus en plus, les médiations qui organisent l’information utile.
Le pouvoir ne disparaît pas des États. Mais il se déplace partiellement hors d’eux. Plus précisément, il se loge dans les systèmes que les États eux-mêmes utilisent désormais.
Dès lors, la question n’est plus simplement : qui décide ? Elle devient : qui rend certaines décisions possibles, rapides, fluides et, à terme, incontournables ?
C’est ce déplacement qui importe. Un État peut réglementer l’intelligence artificielle tout en dépendant d’infrastructures qu’il ne maîtrise pas totalement. Une administration peut moderniser ses procédures tout en externalisant les couches techniques qui structurent ses flux d’information. Une entreprise peut gagner en efficacité tout en perdant la maîtrise des médiations qui orientent ses arbitrages.
Ce phénomène n’est pas une simple dépendance technique. Il annonce ce que l’on peut appeler un encerclement cognitif. Le terme peut sembler abstrait. Il désigne pourtant une réalité très concrète : un acteur conserve ses institutions, ses procédures et sa capacité formelle de décision, mais voit progressivement les conditions de perception, de tri, de synthèse et d’interprétation de l’information être structurées ailleurs.
Lorsqu’une administration, une industrie stratégique ou un acteur de défense confie à des systèmes qu’il ne contrôle pas la synthèse de données sensibles, l’organisation de flux critiques ou l’assistance à l’arbitrage, il ne délègue pas seulement une fonction technique. Il délègue une part du cadrage du réel.
C’est pourquoi le sujet n’est plus seulement celui de la performance. Il devient une question d’autorité, de responsabilité et de souveraineté effective. Les données disponibles confirment d’ailleurs que cette bataille se joue dans des marchés fortement concentrés.
Le rapport UNCTAD 2025 insiste sur le fait que l’IA se développe dans un paysage marqué par de fortes asymétries d’infrastructures, de données et de compétences, et met en avant trois leviers clés pour les pays en développement : infrastructure, data et skills. De son côté, l’OCDE souligne que le marché du cloud soulève des préoccupations de concurrence liées à la concentration, aux barrières à l’entrée et aux difficultés d’interopérabilité. Son travail sur l’infrastructure de l’IA insiste aussi sur le caractère capitalistique et stratégique des chaînes d’approvisionnement liées au compute, aux puces avancées, aux data centers, à l’énergie et aux réseaux.
Face à cela, deux erreurs symétriques doivent être évitées. La première est la fascination : croire que l’adoption rapide de l’IA suffit à produire de la puissance. La seconde est le refus stérile : imaginer qu’un retrait pur et simple préserverait l’autonomie. Ni l’enthousiasme naïf, ni le rejet réflexe ne constituent une stratégie.
La ligne juste est plus exigeante. Elle suppose une cartographie lucide des dépendances, une hiérarchisation des priorités, une maîtrise sélective des zones critiques et une doctrine claire de l’usage.
Pour les puissances intermédiaires, l’enjeu n’est pas de rivaliser frontalement avec les grands centres mondiaux de l’IA. Il est de savoir où la maîtrise est indispensable, où la dépendance peut être assumée lucidement, et où la protection doit devenir prioritaire.
C’est ici que l’intelligence économique retrouve toute sa centralité. Elle permet de cartographier les dépendances, de repérer les vulnérabilités, de lire les chaînes de valeur, de distinguer le bruit technologique du basculement stratégique et, surtout, de transformer l’information en capacité de décision.
Dans l’économie algorithmique, la puissance ne se mesure plus seulement à ce qu’un acteur possède. Elle se mesure à sa capacité à contrôler les conditions dans lesquelles le réel est perçu, ordonné et rendu exploitable.
Le vrai débat sur l’intelligence artificielle ne porte donc déjà plus uniquement sur la technologie. Il porte sur le pouvoir de structurer l’environnement informationnel à partir duquel les autres pensent, arbitrent et agissent.
À l’âge de l’intelligence artificielle, le pouvoir n’appartient plus seulement à celui qui décide. Il appartient aussi à celui qui organise ce que les autres peuvent voir, comprendre et, finalement, décider.
