PandIA

Meta achète des millions de cœurs Graviton5, et la pénurie IA ne vise plus que les GPU

Meta achète des millions de cœurs Graviton5, et la pénurie IA ne vise plus que les GPU

Le signal est brutal : l’IA ne manque plus seulement de GPU. Avec un accord présenté comme multimilliardaire pour intégrer des dizaines de millions de cœurs AWS Graviton5, Meta expose un basculement plus discret, mais potentiellement aussi stratégique : à l’échelle des assistants agentiques, le goulot d’étranglement se déplace aussi vers les CPU.

Annoncé le 24 avril 2026, le partenariat entre Meta et Amazon Web Services n’a rien d’anecdotique. Il met en scène deux rivaux de premier plan dans le cloud, l’IA et la publicité, autour d’un même constat : pour faire tourner les prochains usages, la guerre de l’infrastructure ne se gagnera pas seulement sur les accélérateurs.

Meta officialise un virage massif vers les CPU d’AWS

Dans un billet publié par l’entreprise, Meta indique avoir signé un accord avec AWS afin d’intégrer des dizaines de millions de cœurs Graviton à son parc de calcul, en mettant en avant la dernière génération, Graviton5. Le groupe explique que la montée de ses usages d’IA agentique accroît fortement la demande en calcul CPU, et que cet accord doit soutenir ses futurs workloads.

Le point clé est là : Meta ne présente pas ce choix comme un simple arbitrage économique entre fournisseurs de cloud. L’entreprise l’associe explicitement à la montée en charge de systèmes d’IA capables d’enchaîner des actions, d’orchestrer des outils, de gérer des contextes complexes et de multiplier les échanges entre services. Autrement dit, des usages plus “agents” que “chatbot”.

Meta va jusqu’à affirmer qu’avec cet accord, il deviendra l’un des plus gros clients Graviton au monde. Le message est double. D’un côté, AWS décroche une validation industrielle majeure pour ses processeurs maison à architecture Arm. De l’autre, Meta signale que la couche CPU redevient centrale dans l’économie de l’IA à grande échelle.

Le vrai sujet n’est pas l’entraînement, mais l’orchestation des agents

Depuis deux ans, le débat public sur l’infrastructure IA s’est presque entièrement concentré sur les GPU : disponibilité des Nvidia H100, montée des Blackwell, compétition sur les clusters d’entraînement et coût des inférences massives. Ce cadrage reste pertinent, mais il est incomplet.

Les systèmes agentiques consomment du calcul différemment. Le GPU reste dominant pour l’inférence lourde et les modèles de grande taille. Mais autour de ce cœur, une quantité croissante de tâches reposent sur le CPU : planification, gestion de session, exécution de logique applicative, appels API, traitement de données, coordination des étapes, sécurité, réseau, stockage, mise en cache, compression, préparation et post-traitement.

Dans un assistant classique, la séquence peut rester relativement linéaire : une requête, une réponse. Dans un système agentique, un seul objectif peut déclencher une cascade d’opérations. Chaque étape n’exige pas forcément un GPU, mais elle réclame des ressources généralistes, nombreuses, distribuées et peu coûteuses à l’unité. À cette échelle, les CPU cessent d’être une commodité invisible.

Le choix de Graviton5 est cohérent avec cette logique. Les puces conçues par AWS sont pensées pour offrir un bon ratio performance/coût/efficacité énergétique sur des charges cloud généralistes. Pour Meta, l’enjeu n’est pas seulement de disposer de puissance brute, mais de déployer une immense capacité d’appoint, stable et industrialisable, pour toutes les couches qui entourent les modèles.

Une alliance qui dit aussi quelque chose de la pénurie

Le montant exact n’a pas été détaillé publiquement, mais plusieurs médias américains évoquent un accord de plusieurs milliards de dollars. Cette ampleur suffit à donner la mesure du problème : quand un acteur comme Meta sécurise à l’avance des millions, voire des dizaines de millions de cœurs, ce n’est pas un ajustement tactique. C’est une assurance sur capacité.

Ce point est crucial dans la lecture du marché. Les tensions sur les GPU ont déjà conduit les grands groupes à signer très tôt des engagements pluriannuels avec les fournisseurs de cloud et les fabricants de puces. Ce que montre Meta, c’est que la logique s’étend désormais à d’autres briques de l’infrastructure.

Le paradoxe est frappant. Alors que les CPU semblaient relégués au second plan dans la narration de l’IA générative, ils redeviennent un actif stratégique précisément parce que les modèles sont sortis du laboratoire. Plus les usages se complexifient, plus les besoins d’orchestration, de fiabilité et de montée en charge augmentent. Et plus la capacité CPU disponible devient une variable décisive.

AWS transforme Graviton en arme géopolitique du cloud IA

Pour Amazon, l’opération vaut bien plus qu’un gros contrat commercial. Graviton était déjà un pilier de sa stratégie de différenciation face à Microsoft Azure et Google Cloud. Avec Meta, AWS obtient une vitrine sans équivalent : un des plus grands opérateurs mondiaux de calcul choisit massivement ses CPU maison pour soutenir ses prochaines charges d’IA.

C’est aussi un signal technique. Depuis plusieurs années, les hyperscalers cherchent à réduire leur dépendance aux feuilles de route des fournisseurs externes, qu’il s’agisse d’Intel, d’AMD ou surtout de Nvidia. Les processeurs conçus en interne permettent de mieux maîtriser les coûts, les délais d’approvisionnement et l’optimisation logicielle.

Dans ce contexte, Graviton n’est pas simplement une alternative Arm plus économique. C’est un levier d’intégration verticale. Plus AWS parvient à imposer ses propres puces à des clients de cette taille, plus il consolide sa capacité à verrouiller une partie de la chaîne de valeur de l’IA.

Pour Meta, un choix pragmatique malgré une stratégie maison très ambitieuse

L’accord peut surprendre au regard des investissements internes de Meta dans ses propres infrastructures et dans ses accélérateurs dédiés. Le groupe n’a jamais caché ses ambitions sur le matériel, ni sa volonté de réduire sa dépendance aux fournisseurs externes. Pourtant, cette annonce rappelle une réalité plus simple : même les entreprises les mieux équipées ne peuvent pas tout absorber seules.

La montée de l’IA agentique intervient alors que Meta doit déjà soutenir des usages gigantesques sur Facebook, Instagram, WhatsApp et ses différentes couches publicitaires. Ajouter des agents plus autonomes, plus persistants et plus intégrés à ces produits multiplie les besoins de calcul de fond.

Le recours à AWS traduit donc moins un renoncement qu’un arbitrage industriel. Quand la demande explose, sécuriser des capacités disponibles immédiatement compte autant que la souveraineté technique. Dans l’IA de production, la contrainte de délai pèse souvent autant que la pure optimisation de long terme.

Ce que cet accord révèle du marché en 2026

L’annonce de Meta marque une inflexion importante dans la hiérarchie des ressources critiques. En 2023 et 2024, la question dominante était : qui obtiendra assez de GPU ? En 2026, la question devient plus large : qui contrôlera l’ensemble de la pile de calcul nécessaire pour faire fonctionner des agents à très grande échelle ?

Cette évolution a plusieurs conséquences concrètes.

D’abord, elle redonne de la valeur stratégique aux CPU dans les architectures IA modernes. Ensuite, elle favorise les hyperscalers capables de proposer une offre complète, du stockage au réseau, en passant par les puces maison. Enfin, elle accroît la pression sur les entreprises qui dépendent encore largement de composants standards et de capacités achetées au fil de l’eau.

L’autre leçon, plus politique, tient au rapprochement entre concurrents. Meta et Amazon s’affrontent sur plusieurs terrains, mais l’IA industrielle impose des alliances d’opportunité là où la capacité existe. À ce stade, la compétition ne se limite plus aux modèles, ni même aux produits : elle se joue dans la faculté à réserver des volumes de calcul avant les autres.

La prochaine bataille se comptera en capacité garantie

Le jalon à surveiller n’est pas seulement le déploiement effectif de ces dizaines de millions de cœurs, mais leur impact mesurable sur les produits de Meta au cours des prochains trimestres. Si l’entreprise accélère le lancement d’agents plus persistants dans ses applications grand public, l’accord avec AWS apparaîtra comme un prérequis opérationnel, pas comme une annonce financière.

Pour le marché, la conséquence est déjà tangible : la rareté ne concerne plus uniquement les GPU les plus avancés. Les grands groupes commencent à verrouiller aussi les ressources CPU de nouvelle génération, avec des engagements de plusieurs milliards de dollars. Le prochain test sera simple à lire : combien d’autres acteurs du top 10 mondial du cloud et de l’IA annonceront, d’ici fin 2026, des accords similaires pour sécuriser non plus seulement des accélérateurs, mais l’infrastructure complète de l’agentique.

Recevez les dernières actualités sur l'IA dans votre boite mail

envelope
Si vous souhaitez recevoir un résumé de l'actualité ainsi que nos derniers guides sur l'IA rejoignez nous !
Actualités Guides Liste IA Prompts Newsletter