Au cours des deux dernières années, le discours dominant sur l'IA a été celui d'un potentiel illimité. Des modèles plus grands, des cycles d'entraînement de plusieurs milliards de tokens et des cycles d'investissement record ont renforcé le sentiment d'une accélération ininterrompue. Les changements technologiques sont rarement aussi simples, et cette fois ne fait pas exception. Alors que l'IA passe de l'expérimentation à des applications concrètes, les limites imposées par le monde physique, les marchés financiers et les systèmes politiques ont clairement plus d'importance que son potentiel théorique.
La contrainte la plus immédiate est l'électricité. Cela n'est nulle part plus évident qu'aux États-Unis, où la demande en électricité des centres de données devrait passer d'environ 35 gigawatts à 78 GW d'ici 2035. La Virginie du Nord, le plus grand cluster d'infrastructures cloud au monde, a déjà épuisé sa capacité de réseau disponible. Les services publics de l'Arizona, de la Géorgie et de l'Ohio préviennent que la construction de nouvelles sous-stations pourrait prendre près d'une décennie. Un seul campus peut nécessiter entre 300 et 500 MW, soit suffisamment pour alimenter toute une ville. Le silicium peut être fabriqué rapidement, mais pas les lignes à haute tension.
Les marchés réagissent avec la rapidité et l'ambition que l'on peut attendre. Les hyperscalers (les grandes entreprises technologiques qui développent des modèles d'IA avancés grâce à une capacité de calcul toujours plus importante) sont devenus parmi les plus gros acheteurs mondiaux d'énergie renouvelable à long terme. Des parcs solaires et éoliens privés sont construits expressément pour alimenter les installations cloud, et certaines entreprises explorent la possibilité d'utiliser des réacteurs modulaires de nouvelle génération afin de contourner les infrastructures municipales plus lentes.
Ces efforts finiront par repousser les limites du possible, mais ils ne suppriment pas la contrainte, ils la redirigent simplement. La prochaine vague de capacité d'IA ne se concentrera probablement pas en Virginie du Nord ou à Dublin, mais dans des régions où la terre, l'électricité et l'eau restent abondantes : le Midwest américain, la Scandinavie, certaines parties du Moyen-Orient et l'ouest de la Chine. La géographie de l'IA est dictée par la physique, et non par les préférences.
Le silicium est la prochaine contrainte, et là, l'histoire se complique. Alors que Nvidia semblait autrefois être le substrat universel sous-jacent à tout le développement de l'IA à l'échelle mondiale, cette époque touche à sa fin. Google a franchi une étape importante en entraînant son dernier grand modèle linguistique, Gemini 3, entièrement sur ses propres unités de traitement Tensor. Les puces Trainium2 d'Amazon, Maia de Microsoft et MTIA de Meta sont toutes développées dans le même but. De même, en Chine, la plateforme Ascend de Huawei est devenue l'épine dorsale stratégique de l'entraînement des modèles nationaux face aux contrôles à l'exportation américains.
Cette évolution reflète en partie la maturation naturelle de la technologie. A mesure que la charge de travail augmente, les accélérateurs spécialisés deviennent plus efficaces que les GPU à usage général initialement adaptés à l'IA. Le timing n'est cependant pas fortuit. La pénurie, les tensions géopolitiques et les pressions sur les coûts ont poussé les hyperscalers à assumer un rôle autrefois réservé aux entreprises de semi-conducteurs.
Étant donné que s'éloigner de l'écosystème CUDA de Nvidia entraîne des coûts organisationnels énormes, la volonté croissante de les supporter montre à quel point la contrainte est devenue sévère. Il en résultera un paysage matériel plus fragmenté et, avec lui, un écosystème d'IA plus fragmenté. Une fois que les architectures divergent au niveau du silicium, elles convergent rarement à nouveau.
La troisième contrainte, le capital, fonctionne de manière plus subtile. Les plans d'investissement des hyperscalers pour 2026 dépassent désormais 518 milliards de dollars, un chiffre qui a augmenté de près des deux tiers au cours de la seule année dernière. Nous assistons déjà à la plus grande construction d'infrastructures du secteur privé de l'histoire moderne. Meta, Microsoft et Google révisent leurs prévisions d'investissement si fréquemment que les analystes ont du mal à suivre le rythme.
Pourtant, il est encore trop tôt pour parler de retours économiques. Baidu a récemment déclaré un chiffre d'affaires de 2,6 milliards de yuans (369 millions de dollars) lié aux applications d'IA, principalement grâce à des contrats avec des entreprises et des abonnements à des infrastructures, et Tencent affirme avoir amélioré sa rentabilité grâce à des gains d'efficacité liés à l'IA dans l'ensemble de ses activités matures. Aux États-Unis, la plupart des entreprises continuent cependant d'intégrer leurs revenus liés à l'IA dans des catégories cloud plus larges.
L'écart entre l'adoption de l'IA et sa monétisation est important, mais familier. Lors des précédentes vagues technologiques, les dépenses d'infrastructure ont systématiquement précédé de plusieurs années les gains de productivité. La contrainte ne provient pas d'un sentiment faible des investisseurs, mais de la pression stratégique créée par l'enthousiasme : différentes entreprises poursuivent différentes conceptions de la valeur parce que leurs modèles commerciaux et leurs structures de coûts l'exigent.
De nombreux secteurs ne peuvent tout simplement pas adopter l'IA au rythme auquel les nouveaux modèles sont lancés. Les grandes banques, par exemple, restent soumises à des cadres de sécurité et de conformité qui exigent des déploiements logiciels sur site, entièrement auditables et isolés du réseau. Ces règles les coupent instantanément des modèles les plus avancés, qui reposent sur une orchestration côté cloud et des itérations rapides à travers de nouvelles versions. Les systèmes de santé sont confrontés à des limites similaires, et les gouvernements encore plus. Le problème ne réside pas dans les capacités théoriques de l'IA, mais dans la difficulté d'intégrer ces outils dans des systèmes hérités conçus pour une autre époque.
Prises ensemble, ces forces suggèrent un avenir très différent de celui que laisse entendre le discours médiatique standard. L'IA ne converge pas vers une seule frontière universelle. Des architectures régionales et institutionnelles diverses sont façonnées par différentes limites : pénurie d'électricité aux États-Unis, contraintes foncières et de refroidissement à Singapour et au Japon, rareté « géopolitique » en Chine (où les contrôles à l'exportation occidentaux limitent l'accès aux puces et au matériel cloud avancés), frictions réglementaires en Europe et rigidités organisationnelles dans le monde des entreprises. La technologie est peut-être mondiale, mais sa mise en œuvre est locale.
Heureusement, les contraintes du monde réel ne sont pas l'ennemi du progrès. Souvent, elles constituent l'échafaudage autour duquel de nouveaux systèmes prennent forme. La surabondance de fibre optique à la fin des années 90, initialement qualifiée de gaspillage excessif, a ensuite soutenu l'essor du streaming, des réseaux sociaux et du cloud computing.
Les contraintes actuelles joueront un rôle similaire. La pénurie d'énergie modifie déjà la géographie de l'IA. La fragmentation du silicium crée de nouveaux écosystèmes nationaux et d'entreprise. Les asymétries de capital poussent les entreprises vers différents équilibres stratégiques. Les limites institutionnelles façonnent les premiers cas d'utilisation réels.
La prochaine décennie de l'IA n'appartiendra pas aux systèmes dotés des plus grandes capacités théoriques, mais aux écosystèmes les plus aptes à transformer les limites du monde réel en avantages conceptuels. Les possibilités définissent l'horizon, mais les contraintes détermineront la voie que le monde empruntera finalement.
Par Jeffrey Wu
Directeur chez MindWorks Capital
La contrainte la plus immédiate est l'électricité. Cela n'est nulle part plus évident qu'aux États-Unis, où la demande en électricité des centres de données devrait passer d'environ 35 gigawatts à 78 GW d'ici 2035. La Virginie du Nord, le plus grand cluster d'infrastructures cloud au monde, a déjà épuisé sa capacité de réseau disponible. Les services publics de l'Arizona, de la Géorgie et de l'Ohio préviennent que la construction de nouvelles sous-stations pourrait prendre près d'une décennie. Un seul campus peut nécessiter entre 300 et 500 MW, soit suffisamment pour alimenter toute une ville. Le silicium peut être fabriqué rapidement, mais pas les lignes à haute tension.
Les marchés réagissent avec la rapidité et l'ambition que l'on peut attendre. Les hyperscalers (les grandes entreprises technologiques qui développent des modèles d'IA avancés grâce à une capacité de calcul toujours plus importante) sont devenus parmi les plus gros acheteurs mondiaux d'énergie renouvelable à long terme. Des parcs solaires et éoliens privés sont construits expressément pour alimenter les installations cloud, et certaines entreprises explorent la possibilité d'utiliser des réacteurs modulaires de nouvelle génération afin de contourner les infrastructures municipales plus lentes.
Ces efforts finiront par repousser les limites du possible, mais ils ne suppriment pas la contrainte, ils la redirigent simplement. La prochaine vague de capacité d'IA ne se concentrera probablement pas en Virginie du Nord ou à Dublin, mais dans des régions où la terre, l'électricité et l'eau restent abondantes : le Midwest américain, la Scandinavie, certaines parties du Moyen-Orient et l'ouest de la Chine. La géographie de l'IA est dictée par la physique, et non par les préférences.
Le silicium est la prochaine contrainte, et là, l'histoire se complique. Alors que Nvidia semblait autrefois être le substrat universel sous-jacent à tout le développement de l'IA à l'échelle mondiale, cette époque touche à sa fin. Google a franchi une étape importante en entraînant son dernier grand modèle linguistique, Gemini 3, entièrement sur ses propres unités de traitement Tensor. Les puces Trainium2 d'Amazon, Maia de Microsoft et MTIA de Meta sont toutes développées dans le même but. De même, en Chine, la plateforme Ascend de Huawei est devenue l'épine dorsale stratégique de l'entraînement des modèles nationaux face aux contrôles à l'exportation américains.
Cette évolution reflète en partie la maturation naturelle de la technologie. A mesure que la charge de travail augmente, les accélérateurs spécialisés deviennent plus efficaces que les GPU à usage général initialement adaptés à l'IA. Le timing n'est cependant pas fortuit. La pénurie, les tensions géopolitiques et les pressions sur les coûts ont poussé les hyperscalers à assumer un rôle autrefois réservé aux entreprises de semi-conducteurs.
Étant donné que s'éloigner de l'écosystème CUDA de Nvidia entraîne des coûts organisationnels énormes, la volonté croissante de les supporter montre à quel point la contrainte est devenue sévère. Il en résultera un paysage matériel plus fragmenté et, avec lui, un écosystème d'IA plus fragmenté. Une fois que les architectures divergent au niveau du silicium, elles convergent rarement à nouveau.
La troisième contrainte, le capital, fonctionne de manière plus subtile. Les plans d'investissement des hyperscalers pour 2026 dépassent désormais 518 milliards de dollars, un chiffre qui a augmenté de près des deux tiers au cours de la seule année dernière. Nous assistons déjà à la plus grande construction d'infrastructures du secteur privé de l'histoire moderne. Meta, Microsoft et Google révisent leurs prévisions d'investissement si fréquemment que les analystes ont du mal à suivre le rythme.
Pourtant, il est encore trop tôt pour parler de retours économiques. Baidu a récemment déclaré un chiffre d'affaires de 2,6 milliards de yuans (369 millions de dollars) lié aux applications d'IA, principalement grâce à des contrats avec des entreprises et des abonnements à des infrastructures, et Tencent affirme avoir amélioré sa rentabilité grâce à des gains d'efficacité liés à l'IA dans l'ensemble de ses activités matures. Aux États-Unis, la plupart des entreprises continuent cependant d'intégrer leurs revenus liés à l'IA dans des catégories cloud plus larges.
L'écart entre l'adoption de l'IA et sa monétisation est important, mais familier. Lors des précédentes vagues technologiques, les dépenses d'infrastructure ont systématiquement précédé de plusieurs années les gains de productivité. La contrainte ne provient pas d'un sentiment faible des investisseurs, mais de la pression stratégique créée par l'enthousiasme : différentes entreprises poursuivent différentes conceptions de la valeur parce que leurs modèles commerciaux et leurs structures de coûts l'exigent.
De nombreux secteurs ne peuvent tout simplement pas adopter l'IA au rythme auquel les nouveaux modèles sont lancés. Les grandes banques, par exemple, restent soumises à des cadres de sécurité et de conformité qui exigent des déploiements logiciels sur site, entièrement auditables et isolés du réseau. Ces règles les coupent instantanément des modèles les plus avancés, qui reposent sur une orchestration côté cloud et des itérations rapides à travers de nouvelles versions. Les systèmes de santé sont confrontés à des limites similaires, et les gouvernements encore plus. Le problème ne réside pas dans les capacités théoriques de l'IA, mais dans la difficulté d'intégrer ces outils dans des systèmes hérités conçus pour une autre époque.
Prises ensemble, ces forces suggèrent un avenir très différent de celui que laisse entendre le discours médiatique standard. L'IA ne converge pas vers une seule frontière universelle. Des architectures régionales et institutionnelles diverses sont façonnées par différentes limites : pénurie d'électricité aux États-Unis, contraintes foncières et de refroidissement à Singapour et au Japon, rareté « géopolitique » en Chine (où les contrôles à l'exportation occidentaux limitent l'accès aux puces et au matériel cloud avancés), frictions réglementaires en Europe et rigidités organisationnelles dans le monde des entreprises. La technologie est peut-être mondiale, mais sa mise en œuvre est locale.
Heureusement, les contraintes du monde réel ne sont pas l'ennemi du progrès. Souvent, elles constituent l'échafaudage autour duquel de nouveaux systèmes prennent forme. La surabondance de fibre optique à la fin des années 90, initialement qualifiée de gaspillage excessif, a ensuite soutenu l'essor du streaming, des réseaux sociaux et du cloud computing.
Les contraintes actuelles joueront un rôle similaire. La pénurie d'énergie modifie déjà la géographie de l'IA. La fragmentation du silicium crée de nouveaux écosystèmes nationaux et d'entreprise. Les asymétries de capital poussent les entreprises vers différents équilibres stratégiques. Les limites institutionnelles façonnent les premiers cas d'utilisation réels.
La prochaine décennie de l'IA n'appartiendra pas aux systèmes dotés des plus grandes capacités théoriques, mais aux écosystèmes les plus aptes à transformer les limites du monde réel en avantages conceptuels. Les possibilités définissent l'horizon, mais les contraintes détermineront la voie que le monde empruntera finalement.
Par Jeffrey Wu
Directeur chez MindWorks Capital










La démocratie américaine déportée
