61
Dans une expansion importante de ses capacités, le fondement d’Amazon offre désormais un accès à la famille Qwen de modèles de fondation (FMS) développé par Alibaba. Cette intégration offre aux développeurs une sélection plus large d’outils d’IA de pointe, permettant des solutions plus polyvalentes et plus efficaces pour un large éventail d’applications. Le lancement présente quatre modèles QWEN3 distincts, chacun conçu pour répondre aux performances spécifiques et aux besoins budgétaires.
L’attrait d’Amazon Bedrock réside dans sa capacité à fournir une API unifiée pour accéder aux FMS de pointe sans la complexité de la gestion des infrastructures. Les développeurs peuvent intégrer de manière transparente des modèles de divers fournisseurs, évoluer leur utilisation au besoin et assurer que leurs données ne seront pas utilisées pour la formation des modèles. L’ajout de modèles Qwen solidifie davantage la position du substratum rocheux en tant que centre central pour l’innovation de l’IA.
Déverrouiller de nouvelles possibilités avec les modèles QWEN3
Les modèles QWEN3 nouvellement disponibles débloquent une gamme de cas d’utilisation avancés. Ceux-ci incluent la génération de code sophistiquée et l’analyse approfondie des référentiels, la création de flux de travail agentiques qui automatisent les processus métier complexes et l’optimisation des coûts d’IA grâce à des modes de pensée hybride qui équilibrent les performances et l’efficacité. Mais qu’est-ce qui distingue exactement ces modèles?
Rencontrez la gamme Qwen3
- CODER QWEN3-480B-A35B-INSTRUCT: Un modèle de mélange de réseaux (MOE) avec 480 milliards de paramètres totaux, avec 35 milliards de dollars actifs. Optimisé pour le codage et les tâches agentiques, il excelle dans des domaines comme le codage agentique, l’automatisation du navigateur et l’utilisation des outils. Ce modèle est particulièrement bien adapté pour analyser les grandes bases de code et automatiser les workflows en plusieurs étapes.
- CODER QWEN3-30B-A3B-INSTRUCT: Un autre modèle MOE, comportant 30 milliards de paramètres au total et 3 milliards actifs. Plus spécifiquement adapté aux tâches de codage et à l’instruction suivante, il démontre de solides performances dans la génération de code, l’analyse et le débogage dans de nombreux langages de programmation.
- QWEN3-235B-A22B-INSTRUCT-2507: Un modèle MOE a réglé l’instruction avec 235 milliards de paramètres au total et 22 milliards actifs. Il offre des performances concurrentielles à travers le codage, le raisonnement mathématique et la résolution générale de problèmes, offrant un équilibre convaincant entre la capacité et l’efficacité.
- Qwen3-32b (dense): Un modèle dense avec 32 milliards de paramètres, idéal pour les applications en temps réel et les environnements limités aux ressources comme les appareils mobiles et les comptes Edge. Il offre des performances cohérentes et prévisibles lorsque la latence est critique.
Innovations architecturales: MOE vs dense
Les modèles QWEN3 tirent parti de l’effet de mélange des experts (MOE) et des architectures denses. Les modèles MOE, comme Qwen3-CODER-480B-A35B, QWEN3-CODER-30B-A3B-INSTRUCT et QWEN3-235B-A22B-INSTRUCT-2507, activent uniquement un sous-ensemble de leurs paramètres pour chaque demande, entraînant des performances élevées avec une inférence efficace. En revanche, le QWEN3-32B dense active tous les paramètres, offrant des performances plus cohérentes et prévisibles. Quelle architecture est le mieux dépend des exigences de l’application spécifiques.
Capacités agentiques et réflexion hybride
Les modèles QWEN3 sont conçus avec des capacités agentiques, leur permettant de gérer le raisonnement en plusieurs étapes et la planification structurée dans une seule invocation. Ils peuvent générer des sorties qui appellent des outils externes et des API lorsqu’ils sont intégrés dans un cadre d’agent, en maintenant un contexte étendu à travers les sessions longues. En outre, les modèles prennent en charge l’outil appelant à une communication standardisée avec des environnements externes.
Une caractéristique unique de QWEN3 est son mode de pensée hybride, offrant à la fois des modes «pensée» et «non pensée». Le mode «pensée» utilise un raisonnement étape par étape pour des problèmes complexes, tandis que le mode «non pensant» fournit des réponses rapides pour des tâches plus simples. Cela permet aux développeurs d’affiner l’équilibre entre les performances et le coût.
Manipulation du contexte à long terme pour les tâches complexes
Les modèles de coder QWEN3 excellent dans la gestion des fenêtres de contexte étendues, prenant en charge jusqu’à 256 000 jetons nativement et potentiellement jusqu’à 1 million de jetons avec des méthodes d’extrapolation. Cette capacité permet aux modèles de traiter des référentiels de code entiers, de longs documents techniques ou des histoires conversationnelles étendues dans une seule tâche.
Choisir le bon modèle QWEN3 pour vos besoins
Quels défis espérez-vous résoudre avec ces nouveaux modèles? Et comment envisagez-vous de les intégrer dans vos workflows d’IA existants?
Début avec les modèles Qwen dans le fondement en Amazon
Pour commencer à expérimenter avec des modèles Qwen, accédez à Console de substratum rocheux Amazon et utiliser le Terrain de jeu de chat / texte pour tester rapidement les modèles avec diverses invites.
Pour l’intégration dans vos applications, tirez parti de l’un des SDKS AWSqui donne un accès au substratumaire amazonien Invokemodel et Converser Apis. Vous pouvez également intégrer ces modèles avec des cadres agentiques qui prennent en charge le fondement d’Amazon et déploient des agents en utilisant Agent de fondement amazon. Voici un exemple de python utilisant des agents des brins:
from strands import Agent
from strands_tools import calculator
agent = Agent(
model="qwen.qwen3-coder-480b-a35b-v1:0",
tools=[calculator]
)
agent("Tell me the square root of 42 ^ 9")
with open("function.py", 'r') as f:
my_function_code = f.read()
agent(f"Help me optimize this Python function for better performance:nn{my_function_code}")
Disponibilité régionale
Des modèles QWEN sont actuellement disponibles dans les régions AWS suivantes:
- QWEN3-CODER-480B-A35B-INSTRUCT: US West (Oregon), Asie-Pacifique (Mumbai, Tokyo) et Europe (Londres, Stockholm)
- QWEN3-CODER-30B-A3B-INSTRUCT, QWEN3-235B-A22B-INSTRUCT-2507, et QWEN3-32B: US East (N. Virginia), US West (Oregon), Asie Pacifique (Mumbai, Tokyo), Europe (Ireland, Londres, Milan, Stockholm) et Amérique du Sud (Sé)
Pour la disponibilité régionale la plus à jour, veuillez vous référer à Liste complète des régions. Explorer le qwen dans Page de produit du fondement amazon et le Prix du substratum rocheux amazon page pour en savoir plus.
Questions fréquemment posées
-
Que sont les modèles Qwen et pourquoi sont-ils significatifs pour le substratum rocheux d’Amazon?
Les modèles Qwen sont une famille de modèles de fondation avancés développés par Alibaba, désormais disponibles sur le fondement d’Amazon. Ils représentent une expansion importante des capacités du substratum rocheux, offrant aux développeurs plus de choix et de flexibilité dans la sélection du modèle d’IA.
-
En quoi les modèles de mélange de mélange (MOE) diffèrent-ils des modèles denses comme QWEN3-32B?
Les modèles MOE activent qu’une partie de leurs paramètres pour chaque demande, conduisant à une inférence efficace et à des performances élevées. Les modèles denses, inversement, activent tous les paramètres, offrant des performances cohérentes et prévisibles, ce qui les rend adaptées aux environnements liés aux ressources.
-
Puis-je utiliser des modèles QWEN pour des tâches au-delà de la génération de code?
Oui, les modèles QWEN sont polyvalents et peuvent être appliqués à un large éventail de tâches, notamment le raisonnement mathématique, la résolution générale des problèmes et la construction de flux de travail agentiques pour l’automatisation des affaires.
-
Qu’est-ce que l’agent de fondement d’Amazon et comment cela se rapporte-t-il aux modèles QWEN?
Amazon Bedrock Agentcore est un cadre de déploiement d’agents d’IA. Les modèles QWEN peuvent être intégrés de manière transparente dans AgentCore, vous permettant de construire et de déployer des agents sophistiqués alimentés par ces modèles de fondation avancés.
-
Comment le fondement d’Amazon assure-t-il l’intimité de mes données lors de l’utilisation de modèles QWEN?
Le fondement d’Amazon garantit que les données des clients ne sont jamais utilisées pour former les modèles sous-jacents, fournissant un environnement sécurisé et respectueux de la confidentialité pour le développement et le déploiement de l’IA.
Essayez des modèles Qwen sur le Console de substratum rocheux Amazon aujourd’hui et partagez vos commentaires via AWS RE: Publier pour le fondement d’Amazon ou vos canaux de support AWS typiques.
– Danilo
Mis à jour le 18 septembre 2025 – Le fondement d’Amazon simplifiera l’accès à tous les modèles de fondation sans serveur en les permettant automatiquement pour chaque compte AWS. Les administrateurs de compte conservent un contrôle total sur l’accès au modèle via Politiques AWS IAM et Politiques de contrôle des services (SCP).
En rapport