Les géants du silicium s'unissent : Le pari de 50 milliards de dollars de Meta sur NVIDIA qui redessine la carte de l'infrastructure IA
Meta et NVIDIA forgent un partenariat historique en matière d'infrastructure IA d'une valeur de plusieurs dizaines de milliards de dollars
17 février 2026 (Heure de l'Est) — Dans ce que les analystes qualifient de plus grand engagement d'infrastructure unique de l'histoire de l'industrie des semi-conducteurs, Meta Platforms et NVIDIA Corporation ont annoncé conjointement un partenariat stratégique pluriannuel et multigénérationnel pour déployer des millions de processeurs NVIDIA sur le réseau mondial de centres de données IA de Meta.
L'ampleur de l'accord
L'accord engage Meta à déployer des millions de GPU NVIDIA de nouvelle génération Blackwell (GB300) et Vera Rubin — couvrant à la fois la génération actuelle et la future architecture Rubin prévue pour la production de masse au second semestre 2026.
Crucialement, c'est la première fois que Meta déploiera les CPU Grace de NVIDIA en tant que processeurs autonomes, alimentant des charges de travail d'IA générales et agentives qui ne nécessitent pas de GPU dédié. Ian Buck, vice-président et directeur général de Hyperscale & HPC chez NVIDIA, a déclaré lors d'une conférence de presse avant l'annonce de mardi que Grace offre 2 fois plus de performances par watt sur les charges de travail de centres de données backend par rapport aux architectures x86 traditionnelles. Les premiers résultats des tests effectués par Meta sur le CPU Vera de nouvelle génération ont également montré des résultats « très prometteurs ».
L'accord englobe également les commutateurs réseau Ethernet Spectrum-X™ de NVIDIA, intégrés à la plateforme Facebook Open Switching System (FOSS) de Meta — approfondissant le partenariat bien au-delà du simple silicium pour inclure une pile complète de réseau et d'infrastructure.
Magnitude financière
Bien qu'aucune des deux entreprises n'ait divulgué de valeur officielle pour l'accord, l'analyste de puces Ben Bajarin de Creative Strategies a commenté mardi soir (heure de l'Est) : « L'accord se chiffre certainement en dizaines de milliards de dollars. Nous nous attendons à ce qu'une bonne partie des dépenses d'investissement de Meta soit consacrée à ce déploiement NVIDIA. »
Des analyses indépendantes suggèrent que l'engagement total pourrait atteindre jusqu'à 50 milliards de dollars. Un calcul approximatif — à plus de 3,5 millions de dollars par rack, un million de GPU à lui seul représente environ 48 milliards de dollars. Le partenariat s'aligne sur les dépenses d'investissement prévues par Meta pour 2026, comprises entre 115 et 135 milliards de dollars, soit près du double de ses dépenses de 2025, un chiffre annoncé par l'entreprise en janvier 2026.
Meta représente actuellement environ 9 % du chiffre d'affaires total de NVIDIA. Les puces seront déployées à la fois dans les centres de données de Meta et par l'intermédiaire de partenaires cloud NVIDIA tels que CoreWeave et Crusoe, qui hébergent du matériel NVIDIA pour une utilisation par des tiers.
Raison stratégique : de l'approvisionnement à l'intégration profonde
Le PDG Mark Zuckerberg a encadré le partenariat élargi en termes d'ambitions d'IA à long terme de Meta : « L'accord poursuit notre effort pour offrir une superintelligence personnelle à tous dans le monde » — une vision qu'il a publiquement exposée en juillet 2025.
Le PDG de NVIDIA, Jensen Huang, a souligné la nature unique de Meta en tant que partenaire de déploiement : « Personne ne déploie l'IA à l'échelle de Meta — intégrant la recherche de pointe à une infrastructure à l'échelle industrielle pour alimenter les systèmes de personnalisation et de recommandation les plus importants au monde pour des milliards d'utilisateurs. »
Le partenariat couvre l'infrastructure sur site, le cloud et l'IA, Meta construisant des centres de données hyperscale optimisés pour l'entraînement et l'inférence de l'IA. Grâce à une co-conception approfondie des CPU, GPU, réseaux et logiciels, il s'agit d'un engagement de plateforme complète — et non d'un achat de matériel unique — visant à alimenter les applications d'IA de Meta sur WhatsApp, Instagram et Facebook.
Réaction du marché
L'annonce a déclenché une réaction immédiate du marché. L'action NVIDIA a grimpé de plus de 5 % lors des premières transactions mercredi 18 février (heure de l'Est), ajoutant des centaines de milliards de dollars à sa capitalisation boursière. Les actions de Meta ont également augmenté lors des transactions prolongées mardi.
En revanche, l'action AMD a chuté d'environ 4 % suite à cette nouvelle — un signal direct de la pression concurrentielle que le accord Meta-NVIDIA exerce sur le principal rival de NVIDIA sur le marché des accélérateurs d'IA. L'action de NVIDIA elle-même reste légèrement en baisse depuis le début de l'année dans un contexte de préoccupations générales du marché concernant la durabilité des dépenses en IA, faisant de cet accord un catalyseur de sentiment important.
Contexte concurrentiel et perspectives à long terme
L'accord ne signifie pas d'exclusivité. Meta continue d'exploiter une flotte substantielle de GPU AMD Instinct et a été directement impliqué dans la conception des futurs systèmes de racks Helios d'AMD. En novembre 2025, des rapports ont fait état de discussions entre Meta et Google concernant l'utilisation de ses puces TPU pour certaines charges de travail d'IA.
À l'avenir, le propre programme de puces internes de Meta représente une variable clé :
- MTIA-2 — en production, prévu pour le premier semestre 2026
- MTIA-3 — successeur de nouvelle génération, attendu au second semestre 2026
Tout changement matériel dans l'allocation du capital de Meta, passant du matériel NVIDIA à son propre silicium, serait étroitement surveillé comme un test de la durabilité à long terme de l'accord.
Pour NVIDIA, le partenariat offre un ancre de revenus massive et pluriannuelle et sert simultanément de terrain d'essai à grande échelle pour sa plateforme CPU Grace basée sur Arm face à l'écosystème x86 bien établi. Les principaux risques d'exécution à court terme cités par les analystes comprennent les contraintes de la chaîne d'approvisionnement en High Bandwidth Memory (HBM4) et en systèmes de refroidissement liquide avancés, à mesure que la production passe de Blackwell à Rubin tout au long de 2026.