Publié le 26 février 2026 09:31:00. Jensen Huang, le PDG de Nvidia, met l’accent sur l’importance croissante des processeurs (CPU) dans le domaine de l’intelligence artificielle, alors que l’entreprise cherche à diversifier son offre au-delà des traditionnels processeurs graphiques (GPU).
- Nvidia prévoit que ses ventes de CPU haute performance augmenteront considérablement dans les centres de données.
- L’entreprise s’apprête à lancer de nouvelles offres de CPU pour concurrencer Intel et AMD.
- Le passage de l’IA au déploiement de modèles, plutôt qu’à leur développement, favorise l’utilisation des CPU.
Pendant des décennies, Nvidia a bâti sa réputation et sa fortune grâce aux unités de traitement graphique (GPU) spécialisées, essentielles au fonctionnement des serveurs d’intelligence artificielle. Cependant, Jensen Huang, le PDG de l’entreprise, a récemment exprimé une préférence grandissante pour le processeur, ou unité centrale de traitement (CPU), traditionnellement associé à Intel et Advanced Micro Devices.
Huang souligne que, par le passé, 90 % de la puissance de calcul provenait des CPU, contre seulement 10 % des puces comme celles de Nvidia. Mais cette proportion s’est inversée ces dernières années. Néanmoins, le CPU connaît un regain d’intérêt, devenant une option aussi performante, voire supérieure, à mesure que les entreprises d’IA passent de la phase de développement de leurs modèles à celle de leur mise en œuvre.
« Nous aimons les processeurs autant que les GPU », a déclaré Huang lors d’une conférence téléphonique avec des analystes concernant les résultats du quatrième trimestre de l’entreprise. Il a assuré que Nvidia était non seulement prête à répondre à ce regain d’intérêt pour les CPU, mais que ses propres offres de CPU pour centres de données, présentées pour la première fois en 2023, surpasseraient la concurrence.
Lors du Consumer Electronics Show de Las Vegas en janvier dernier, Huang a également prédit une explosion du nombre de processeurs Nvidia haute performance utilisés dans les centres de données, et n’a pas exclu la possibilité que Nvidia devienne l’un des plus grands fabricants de processeurs au monde.
CPU et GPU sont tous deux des composants informatiques essentiels, mais ils ont des fonctions différentes. Les CPU sont des puces généralistes conçues pour gérer une grande variété de tâches mathématiques, tandis que les GPU sont spécialisés dans l’exécution d’un ensemble plus restreint de calculs, mais en parallèle et à grande échelle. Dans le domaine des jeux vidéo, cela se traduit par le calcul rapide de milliers de pixels à l’écran, et dans celui de l’IA, par la multiplication et l’addition de matrices de nombres utilisées pour représenter des données réelles, comme des mots ou des images.
Les entreprises d’IA déploient de plus en plus d’« agents » capables d’effectuer de manière autonome des tâches telles que l’écriture de code, la recherche de documents ou la rédaction de rapports. Selon Ben Bajarin, analyste chez Creative Strategies, ce type de travail informatique « se déroule de plus en plus, et parfois principalement, sur le processeur ». Le serveur IA phare de Nvidia, le NVL72, contient actuellement 36 processeurs et 72 GPU. Bajarin estime que ce rapport pourrait évoluer vers 1:1 pour les tâches liées aux agents, voire que le GPU pourrait devenir superflu.
Pour souligner ses ambitions dans le domaine des processeurs, Nvidia a récemment annoncé un accord avec Meta Platforms, la société mère de Facebook, qui déploiera de grandes quantités de ses puces CPU Grace et Vera de manière indépendante. Il s’agit d’une évolution notable par rapport aux serveurs IA actuels de Nvidia, où chaque processeur est généralement associé à plusieurs GPU. Cependant, Meta n’a pas changé de fournisseur, mais a simplement diversifié ses sources d’approvisionnement. Quelques jours plus tard, AMD a également annoncé un accord majeur avec Meta, incluant des processeurs que Meta achète déjà depuis des années.
Lors de la conférence téléphonique avec les analystes, Huang a insisté sur le fait que Nvidia adoptait une approche différente en matière de processeurs. Il a expliqué que Nvidia avait choisi de ne pas diviser ses puces en parties plus petites, comme le font Intel et AMD. Le processeur Nvidia est capable d’effectuer de nombreuses tâches simples en séquence et bénéficie d’un accès rapide à une grande quantité de mémoire vive (RAM). « Il est conçu pour fournir des capacités de traitement de données très élevées », a déclaré Huang. « Et la raison en est que la plupart des problèmes informatiques qui nous intéressent sont basés sur les données, comme l’intelligence artificielle. »
Dave Altavilla, analyste senior chez HotTech Vision and Analysis, estime que Nvidia cherche à démontrer que le type de processeur traditionnellement fourni par Intel « n’est plus considéré comme un fondement acquis des infrastructures informatiques modernes. Il devient plutôt une option architecturale parmi d’autres ». Huang a annoncé que Nvidia dévoilerait de plus amples informations sur ses processeurs lors de sa conférence annuelle des développeurs à Silicon Valley le mois prochain.