Note · 30.04.2026
L'infrastructure devient le vrai centre de gravité de l'IA
Le marché ne regarde plus seulement les modèles. Il regarde les puces, la capacité électrique, le cloud et les contrats de compute.
Une erreur courante consiste encore à penser que la valeur de l'IA se concentre d'abord dans les modèles les plus visibles. La quinzaine examinée ici raconte l'inverse. Le centre de gravité économique se déplace vers la capacité de calcul, les puces, les accords cloud, la densité des centres de données et les formes de verrouillage commercial qui rendent cette infrastructure rare. C'est exactement ce que la performance de marché suggère, les véhicules liés aux semi-conducteurs et à la robotique ont surperformé les grands indices, alors même que les hausses de taux n'ont pas disparu et que le risque géopolitique s'est intensifié. Le thème IA se traite de plus en plus comme un thème d'infrastructure critique, pas seulement comme un thème logiciel.
OpenAI, le déclencheur d'un nouvel équilibre
Le 27 avril, OpenAI et Microsoft ont officialisé un partenariat amendé : Microsoft reste le principal partenaire cloud, mais la licence devient non exclusive et OpenAI peut désormais servir ses produits sur n'importe quel cloud. Un jour plus tard, les derniers modèles d'OpenAI et son agent de codage Codex arrivaient sur Bedrock chez Amazon Web Services. La séquence réduit la dépendance d'OpenAI à un seul fournisseur, élargit l'espace concurrentiel d'AWS et transforme l'accès aux modèles frontaliers en enjeu d'orchestration cloud. La valeur peut se déplacer des laboratoires vers les opérateurs d'infrastructure capables de sécuriser la capacité, la distribution et l'outillage.
Amazon assemble une plateforme quasi industrielle
Le groupe a indiqué que son activité puces, Graviton, Trainium et Nitro, dépassait déjà un rythme annualisé de 20 milliards USD. Il a annoncé environ 2 gigawatts de capacité Trainium pour OpenAI, jusqu'à 5 gigawatts pour Anthropic, plus de 2,1 millions de puces IA livrées sur douze mois et plus d'un million de GPU NVIDIA à déployer à partir de 2026. La dépense client Bedrock a progressé de 170 % d'un trimestre à l'autre. Ce n'est plus un simple pari d'architecte cloud, c'est la construction d'une plateforme de compute où la puce propriétaire, l'accord pluriannuel et le service managé se renforcent mutuellement. La frontière se brouille entre fournisseur cloud, concepteur de silicium et distributeur de modèles.
Alphabet, l'option matérielle assumée
Google Cloud n'est plus seulement le réceptacle d'une demande IA externe. La direction a expliqué que le cloud progressait de 63 % grâce à la demande pour ses produits et son infrastructure IA, et les TPU peuvent désormais être vendus directement à certains clients. Tant qu'un hyperscaler garde ses accélérateurs pour son usage interne, le marché le valorise comme opérateur intégré. Dès qu'il commence à les vendre, il devient aussi un fournisseur de matériel stratégique. L'option de hausse sur la marge brute et la profondeur d'écosystème augmente, mais aussi les besoins futurs en capex et la sensibilité à la chaîne d'approvisionnement.
Microsoft : la rareté est la nouvelle norme
La direction a insisté sur un point crucial, la demande continue de dépasser l'offre, et la société s'attend à rester contrainte au moins jusqu'à la fin 2026 malgré un capex annuel d'environ 190 milliards USD. Le cycle de build-out est loin d'être terminé. La rareté ne porte pas seulement sur les modèles, mais aussi sur le foncier data center, les composants avancés, les chaînes d'assemblage, l'électricité, les équipements réseau et les puces. C'est cette logique qui explique que le secteur reste cher tout en restant capable de progresser.
Dispersion entre titres, dispersion entre récits
AMD a gagné 20,1 % sur la période, soutenu par l'idée que le boom du compute ne peut pas rester éternellement concentré sur un seul vendeur de GPU. NVIDIA est resté quasiment stable, le marché commençant à intégrer la diversification des acheteurs, le poids des puces maison et l'arrivée de challengers. ASML a reculé de 5,0 %, sans contredire la thèse long terme, simplement parce qu'après une forte hausse antérieure, même les dossiers « picks and shovels » peuvent corriger lorsque la rotation devient plus fine. AMD a entretenu son momentum en annonçant son événement Advancing AI 2026, présenté comme son grand rendez-vous mondial autour d'une offre IA de bout en bout.
La géopolitique entre dans la valorisation
L'administration américaine envisage de nouvelles restrictions destinées à empêcher la fonderie chinoise Hua Hong d'accéder à certaines technologies américaines via des filiales étrangères. La Chine a lancé une campagne contre les usages abusifs de l'IA, visant deepfakes, désinformation financière et contenus manipulés. La chaîne de valeur IA devient une question de sécurité économique et informationnelle. Pour un family office, cela milite pour une cartographie plus stricte des dépendances par juridiction, fournisseur cloud, exposition à la Chine et concentration sur des composants critiques.
Trois couches à distinguer
La couche infrastructure intégrée, cloud plus silicium plus outils, reste la plus robuste à ce stade. La couche des challengers matériels peut capter une part croissante du budget des acheteurs cherchant à diversifier leurs fournisseurs. Enfin, la couche équipement et sous-systèmes garde une création de valeur forte mais une performance boursière plus intermittente après de grands mouvements. Dans l'IA, la rareté économique n'est plus le modèle. C'est la capacité.