Publié le 2025-10-29 18:05:00. Akamai Technologies et NVIDIA unissent leurs forces pour redéfinir l’intelligence artificielle (IA) avec Akamai Cloud Inference, une plateforme qui déploie l’IA au plus près des utilisateurs. Cette innovation promet des performances IA accélérées et une latence ultra-faible à l’échelle mondiale, ouvrant la voie à de nouvelles applications exigeant un traitement instantané des données.
- Akamai Cloud Inference étend les capacités d’inférence de l’IA des centres de données vers la périphérie du réseau Internet.
- Cette solution combine le réseau mondial d’Akamai avec l’infrastructure NVIDIA Blackwell AI pour un traitement des données en temps réel.
- L’objectif est de rendre l’IA générative et physique plus rapide, plus adaptable et accessible partout dans le monde.
La nouvelle plateforme Akamai Cloud Inference marque un tournant dans le déploiement de l’intelligence artificielle. Plutôt que de s’appuyer uniquement sur les centres de données traditionnels, cette solution intègre l’IA directement à la « périphérie » (edge), c’est-à-dire au plus près des points de génération des données et des utilisateurs. Cette approche vise à réduire drastiquement les délais de traitement, ouvrant la voie à des applications autrefois impossibles à réaliser à cause de la latence.
Cette initiative s’inscrit dans la continuité de la vision d’Akamai, qui avait déjà révolutionné la diffusion de contenu avec son réseau de diffusion de contenu (CDN) il y a vingt ans. Aujourd’hui, l’entreprise applique une logique similaire au domaine de l’IA, où l’enjeu principal est d’augmenter la capacité et la performance d’inférence face à une utilisation croissante des applications intelligentes.
« Avec le soutien de la technologie NVIDIA, nous sommes prêts à étendre notre réseau d’inférence d’IA à des milliers d’emplacements dans le monde », a déclaré Tom Leighton, PDG d’Akamai.
Tom Leighton, PDG d’Akamai
De son côté, Jensen Huang, fondateur et PDG de NVIDIA, souligne l’importance croissante de la phase d’inférence dans les processus d’IA, qui requiert des capacités de calcul massives et un raisonnement en temps réel. La collaboration avec Akamai permettra de rapprocher ces capacités d’inférence des utilisateurs, rendant ainsi l’IA générative plus rapide, plus efficace et plus accessible.
« La collaboration avec Akamai rapprochera les capacités d’inférence des utilisateurs, où qu’ils se trouvent, afin que l’IA générative puisse fonctionner plus rapidement, plus efficacement et être plus accessible », a expliqué Jensen Huang.
Jensen Huang, fondateur et PDG de NVIDIA
La plateforme Akamai Cloud Inference intègre des composants matériels de pointe de NVIDIA, tels que le serveur NVIDIA RTX PRO avec un GPU RTX 6000 Blackwell Server Edition et un DPU NVIDIA BlueField-3, le tout couplé au logiciel NVIDIA AI Enterprise. Ces technologies sont déployées sur le vaste réseau périphérique mondial d’Akamai, qui compte plus de 4 200 sites. Cette combinaison permet une exécution distribuée et hautement évolutive de l’IA, optimisant le transfert de données entre le centre et la périphérie grâce à des technologies comme le DPU BlueField-4.
Cette nouvelle infrastructure ouvre la voie à une nouvelle génération d’IA « agentique et physique ». L’objectif est de déployer des « AI Factories » – des centres de calcul gérant le cycle de vie complet de l’IA – jusqu’à la périphérie. Cela permettra aux agents d’IA d’opérer localement, offrant des expériences numériques plus personnalisées et adaptatives. Par exemple, des agents commerciaux intelligents pourraient négocier et optimiser des transactions automatiquement en temps réel, en s’appuyant sur les vastes ressources du réseau Akamai.
La capacité de déploiement de « Streaming Inference » permet aux agents d’IA d’exécuter plusieurs couches d’inférence de manière séquentielle sans décalage notable. Cela rend possibles des applications qui nécessitaient auparavant des processus lents, comme la détection de fraudes, l’analyse financière en temps réel ou la prise de décision rapide dans l’industrie.
Au-delà du domaine numérique, Akamai Cloud Inference est également conçu pour des applications d’IA physique. Les véhicules autonomes, les robots industriels ou les infrastructures de villes intelligentes, qui exigent une prise de décision en quelques millisecondes pour interagir en toute sécurité avec le monde réel, bénéficieront de cette capacité à traiter instantanément les données des capteurs, à évaluer les risques et à prendre des mesures correctives.
Akamai a également mis en place une couche d’orchestration intelligente pour gérer les charges de travail d’IA à travers différentes régions. Ce mécanisme dirige automatiquement les tâches vers les emplacements les plus optimaux, simplifiant ainsi la gestion d’une IA distribuée pour les utilisateurs.
La plateforme Akamai Cloud Inference est actuellement opérationnelle sur 20 sites pilotes à travers le monde, avec une expansion progressive prévue. Akamai réaffirme ainsi son ambition de rendre l’IA plus rapide, plus adaptable et universelle, en rapprochant la puissance de l’intelligence artificielle du point d’usage.