Le rendez-vous annuel d’AWS à Las Vegas a livré une avalanche d’innovations, avec une ligne directrice limpide : l’intelligence artificielle appliquée à l’entreprise. Sur scène, les dirigeants ont déroulé des annonces AWS allant des AI agents autonomes aux nouvelles puces Trainium3, en passant par la plateforme AgentCore et la famille de modèles Nova 2. Les récits clients ont ancré ces nouveautés dans le réel, tandis que les sessions techniques ont détaillé les chemins de mise en œuvre dans le cloud computing. L’angle stratégique est net : accélérer la création de valeur par des solutions cloud plus personnalisables, gouvernables et sobres en énergie.
Le ton a été donné par Matt Garman, qui a défendu une bascule des assistants vers des agents capables de planifier et d’agir. Ensuite, Swami Sivasubramanian a martelé la promesse d’un développement guidé par la langue naturelle. Enfin, Werner Vogels a signé une keynote de clôture marquante, rassurant les ingénieurs sur leur rôle tout en invitant à évoluer. Au milieu des nouveautés services cloud, on retient aussi des réponses très concrètes aux enjeux de coût, de data sovereignty et d’opérabilité. L’infrastructure AWS franchit un cap avec Graviton5 et Trainium3, et les innovations AWS autour de Nova Forge et d’AgentCore visent la personnalisation sans friction. Le message est clair : la technologie cloud s’industrialise pour l’ère agentique.
En bref — les annonces AWS clés de re:Invent 2025
- Agentic AI : nouveaux Frontier agents dont Kiro autonomous agent pour coder et opérer en autonomie.
- Modèles : Nova 2 (Lite, Pro, Sonic, Omni) et Nova Forge pour créer des modèles sur mesure.
- Chips : Graviton5 (192 cœurs) et Trainium3 avec UltraServer, jusqu’à 4x de gains et -40% d’énergie.
- Dev & MLOps : Bedrock et SageMaker gagnent la personnalisation serverless et le Reinforcement Fine Tuning.
- Économie : Database Savings Plans avec jusqu’à 35% d’économies.
- Data sovereignty : AI Factories pour exécuter l’IA AWS dans des datacenters privés.
Agentic AI au cœur de re:Invent 2025 : Nova 2, Nova Forge, AgentCore et Frontier agents
L’agenda a placé les agents au premier plan, avec des capacités concrètes pour orchestrer des tâches et agir. D’abord, la famille Nova 2 s’enrichit avec des variantes adaptées aux textes et au multimodal. Ensuite, Nova Forge ouvre un atelier pour affiner des modèles pré-, mi- ou post-entraînés avec des données propriétaires, selon un abonnement aux alentours de 100 000 $ par an. L’objectif : accélérer la personnalisation sans renoncer à la sécurité.
Dans la même veine, AgentCore gagne des contrôles de Policy pour tracer des limites précises à ce que l’agent peut faire. De plus, les agents peuvent désormais mémoriser des éléments utiles sur l’utilisateur et journaliser leurs actions. Treize systèmes d’évaluation préconstruits aident à mesurer la performance avant un déploiement large. Cela réduit le risque de comportements non désirés.
La gamme des Frontier agents illustre la promesse d’autonomie. L’agent Kiro autonomous agent apprend la culture d’équipe, écrit du code et opère sur de longues fenêtres. Un second agent s’occupe de la sécurité : il inspecte les revues de code et durcit les pipelines. Un troisième gère la couche DevOps pour prévenir les incidents lors des mises en production. En pratique, ces blocs s’imbriquent avec les pipelines existants.
Cas d’usage, gouvernance et impact mesurable
Un exemple marquant vient de Lyft qui exploite Anthropic Claude via Amazon Bedrock pour un agent support. L’entreprise annonce une réduction de 87% du temps de résolution moyen et une adoption croissante côté conducteurs. Au-delà du support, un éditeur SaaS peut, par exemple, confier à Kiro l’écriture de microservices et l’outillage d’intégration continue, tout en gardant une revue humaine.
La gouvernance reste au centre. Grâce à Policy in AgentCore, les équipes imposent des limites : quelles API, quels environnements, quels secrets. Ensuite, la mémoire des agents se règle finement : durée, portée, confidentialité. Enfin, les treize évaluations permettent de tester robustesse, pertinence et sécurité avant d’ouvrir à des utilisateurs finaux.
- Personnalisation : Nova Forge pour créer des modèles adaptés aux métiers sensibles.
- Contrôles : règles, mémoires et journaux dans AgentCore pour cadrer l’autonomie.
- Productivité : Frontier agents pour coder, sécuriser et déployer plus vite.
| Composant | Rôle clé | Bénéfice principal | Indicateur |
|---|---|---|---|
| Nova 2 (Lite/Pro/Sonic/Omni) | Génération texte et multimodal | Qualité et latence adaptées aux besoins | Choix de variantes |
| Nova Forge | Personnalisation de modèles | Flexibilité et confidentialité | ~100 000 $/an |
| AgentCore (Policy, Memory, Logs) | Gouvernance des agents | Maîtrise des actions et traçabilité | 13 évaluations |
| Frontier agents | Code, sécurité, DevOps | Autonomie opérationnelle | Exécution heures/jours |
Pour un DSI, la combinaison Nova 2 + Nova Forge + AgentCore installe une chaîne complète : modèles, personnalisation, garde-fous. Ainsi, la bascule vers des solutions cloud agentiques devient pilotable et mesurable.
La keynote d’ouverture fixe le contexte stratégique de l’agentic AI et des nouveaux modèles. Les sessions techniques détaillent ensuite les architectures et les métriques d’implémentation.
Puces, infrastructure AWS et AI Factories : performances, efficacité et souveraineté
Les annonces sur l’infrastructure AWS ont ciblé la performance et la sobriété. D’abord, Graviton5 arrive avec 192 cœurs et une topologie qui réduit la distance entre cœurs. Selon AWS, la latence inter-cœurs baisse jusqu’à 33% tandis que la bande passante progresse. Ensuite, la feuille de route IA avance avec Trainium3 et le système UltraServer.
Sur le volet entraînement, Trainium3 promet jusqu’à 4x de gains sur l’entraînement et l’inférence, tout en abaissant la consommation de 40%. En pratique, cela diminue la facture énergétique et le temps de convergence des modèles. Comme perspective, Trainium4 est évoqué avec une compatibilité Nvidia annoncée pour favoriser l’interopérabilité.
Par ailleurs, AI Factories permet d’exécuter des systèmes IA AWS dans des datacenters privés. Le dispositif, conçu avec Nvidia, accepte des GPU Nvidia ou les puces maison Trainium3. Les organisations sensibles au data sovereignty disposent ainsi d’une option locale, sans renoncer aux outils AWS.
Architecture de référence et scénarios d’adoption
Une entreprise industrielle peut, par exemple, réserver Graviton5 pour ses microservices, et dédier Trainium3 à l’entraînement des modèles Nova dans UltraServer. Ensuite, elle connecte une AI Factory sur site pour ses données stratégiques. Ce schéma limite la latence et protège l’IP.
La migration se déroule par vagues. On commence par des services stateless faciles à porter sur Graviton5. Puis, on planifie les workloads IA selon le couple performance/énergie. Enfin, on formalise la gouvernance des flux entre le site privé et le cloud computing AWS.
- Compute : Graviton5 pour les services intensifs mais économes.
- IA : Trainium3/UltraServer pour des entraînements rapides et sobres.
- Souveraineté : AI Factories pour garder les données sur site.
| Élément | Caractéristique | Avantage | Cas type |
|---|---|---|---|
| Graviton5 | 192 cœurs, topologie dense | Latence inter-cœurs -33% | Microservices, API |
| Trainium3 + UltraServer | Jusqu’à 4x gains, -40% énergie | Entraînement + inférence rapides | LLMs, multimodal |
| AI Factories | Sur site, Nvidia ou Trainium3 | Souveraineté et intégration AWS | Public, finance, santé |
Sur le plan financier, la baisse d’énergie pèse vite sur le TCO. Ainsi, la combinaison compute/IA/souveraineté forme un triptyque prêt pour des déploiements à grande échelle.
Les sessions techniques détaillent les métriques, les topologies réseau et les meilleures pratiques de déploiement. Les retours des architectes confirment l’intérêt d’un design sobre et modulaire.
Le chantier des développeurs : Bedrock, SageMaker, Kiro et maîtrise des coûts
AWS a renforcé le pipeline des builders avec des outils plus directs. D’abord, Amazon SageMaker reçoit la personnalisation serverless : les équipes démarrent un tuning de modèle sans gérer de clusters. Ensuite, Amazon Bedrock ajoute le Reinforcement Fine Tuning avec des workflows et systèmes de récompense préconfigurés.
Ces blocs s’accompagnent d’agents qui guident les parcours. On peut suivre une voie autoguidée ou se faire aider par un agent IA pour orchestrer les étapes. L’objectif reste la vitesse sans compromettre la qualité. Au passage, le codex Kiro se muscle pour séduire les start-up.
Sur ce point, AWS propose des crédits Kiro Pro+ gratuits pendant un an pour des start-up éligibles. Le geste vise à déclencher des essais en profondeur et à ancrer Kiro dans les workflows d’ingénierie. La sélection reste limitée à des pays et à des stades précoces.
Coût maîtrisé et gouvernance prête à l’emploi
Côté base de données, les Database Savings Plans apportent jusqu’à 35% d’économies en échange d’un engagement horaire sur un an. Les remises s’appliquent automatiquement sur les services éligibles. Le surusage reste facturé au tarif à la demande.
La gouvernance s’inscrit aussi dans la pile. On définit les politiques d’accès aux données d’entraînement, les rôles sur les pipelines et les fenêtres de mémorisation d’agents. Ensuite, on audite avec les journaux fournis par AgentCore et les rapports Bedrock. Cela structure un cycle d’amélioration continue.
- Serverless tuning : lancer un tuning sans gérer l’infrastructure.
- RFT Bedrock : workflows préconstruits pour un gain de temps.
- Économie : jusqu’à 35% via les Database Savings Plans.
| Service | Nouvelle capacité | Impact développeur | Indicateur clé |
|---|---|---|---|
| SageMaker | Personnalisation serverless | Moins d’opérations, démarrage rapide | Minutes au lieu d’heures |
| Bedrock | Reinforcement Fine Tuning | Qualité accrue via récompenses | Workflows préconfigurés |
| Kiro Pro+ | Crédits offerts 1 an (éligible) | Adoption et expérimentation | Start-up ciblées |
| Database Savings Plans | Jusqu’à 35% d’économies | Réduction de la facture DB | Engagement 1 an |
Pour un CTO, l’équation devient attractive : tuning simplifié, gouvernance intégrée et coût prévisible. Ainsi, la chaîne du prototype à la production se raccourcit sans renoncer aux garde-fous.
Impacts métiers et retours terrain : du support client à la production logicielle
Les cas clients éclairent l’adoption réelle. Lyft a mis en avant un agent basé sur Claude via Bedrock. Le temps de résolution a chuté de 87%, et les conducteurs l’utilisent beaucoup plus. Ce genre de résultat confirme l’intérêt d’un agent bien cadré.
En parallèle, des scénarios illustratifs montrent la diversité des gains. Une enseigne fictive, Helios Retail, pourrait mobiliser un agent de réassort pour optimiser les stocks en continu. Un prestataire santé, Mediscan, peut déployer un agent d’extraction documentaire pour accélérer la revue clinique, tout en appliquant des politiques strictes via AgentCore.
L’industrie logicielle reste un terrain naturel. Un éditeur pourrait confier à Kiro autonomous agent la production de microservices en langage Go, puis à l’agent sécurité la revue des pull requests sensibles. Enfin, l’agent DevOps préviendrait les incidents au moment du déploiement.
Métriques, méthodes et organisation
Les équipes réussissent lorsqu’elles mesurent tôt. On suit des indicateurs comme le temps de cycle, la latence de réponse, le taux d’escalade et le coût par ticket résolu. Ensuite, on fait évoluer les politiques d’agent pour élargir progressivement le périmètre d’autonomie. La mémoire agent doit rester frugale et explicable.
L’adoption implique aussi la conduite du changement. On forme les équipes, on crée des guildes d’agents, et on documente des playbooks par métier. La gouvernance fixe les responsabilités, la vérification des sorties et les chemins d’escalade. Cette discipline évite les dérives et consolide la confiance.
- Support : agents pour la résolution rapide et l’évitement d’escalades.
- Back-office : automatisation de rapprochements et extractions.
- Dev : génération de code, tests, sécurité et déploiements.
| Domaine | Agent AWS | Gain attendu | Métrique exemple |
|---|---|---|---|
| Support client | Agent via Bedrock + Policy | Moins d’escalades | -87% temps moyen (cas Lyft) |
| Sécurité | Agent revue de code | Détection plus précoce | Moins de vulnérabilités |
| DevOps | Agent prévention incident | Déploiements fiables | MTTR réduit |
| Engineering | Kiro autonomous agent | Cycle de dev plus court | Lead time vs. base |
Au final, la valeur vient d’une orchestration fine : bons agents, bons garde-fous, bonnes métriques. Ainsi, chaque équipe transforme l’essai avec des objectifs clairs et des données probantes.
Vision, keynotes et messages stratégiques : de la promesse des agents à l’avenir du travail
La conférence a été rythmée par des messages forts. Matt Garman a expliqué que la vraie valeur de l’IA émerge lorsque des agents exécutent des tâches de bout en bout. Ensuite, Swami Sivasubramanian a rappelé qu’on peut désormais décrire un objectif en langage naturel, laisser l’agent planifier, coder et exécuter.
La keynote de clôture a marqué un tournant. Werner Vogels a questionné l’impact sur l’emploi et invité les ingénieurs à évoluer. L’automatisation retire certaines tâches, mais elle ouvre aussi de nouveaux champs. Le mot d’ordre reste la montée en compétence et l’adaptation.
Par ailleurs, le fil économique a été assumé. Andy Jassy a souligné l’élan commercial des puces d’entraînement, tout en projetant l’arrivée de Trainium3. La compétition avec Nvidia devient plus lisible, et la compatibilité future guide les choix d’architecture.
Feuille de route et recommandations d’adoption
Les organisations peuvent appliquer un cadre simple : prioriser les cas d’usage à impact net, choisir les innovations AWS qui réduisent la complexité, et installer les garde-fous dès le départ. Ensuite, mesurer les résultats et itérer rapidement. Enfin, préparer les équipes à travailler avec des agents qui apprennent et évoluent.
Une entreprise peut, par exemple, séquencer son adoption en trois mois. Le premier mois, cartographier les processus et sélectionner deux cas cibles. Le deuxième, prototyper avec Bedrock/SageMaker et AgentCore. Le troisième, industrialiser avec des politiques strictes et des métriques publiques.
- Cap : des assistants vers des agents vraiment opérationnels.
- Culture : former, documenter, auditer et partager les leçons.
- Interopérabilité : anticiper la mixité Nvidia/Trainium.
| Moment | Orateur | Message clé | Action suggérée |
|---|---|---|---|
| Ouverture | Matt Garman | Les agents déverrouillent la valeur | Identifier 2-3 cas d’automatisation |
| Milieu | Swami Sivasubramanian | Construire par langage naturel | Expérimenter RFT et serverless |
| Clôture | Werner Vogels | Évoluer, ne pas craindre l’IA | Plan de compétences |
Le fil rouge reste constant : accélérer l’impact tout en gardant la main sur la sécurité, le coût et la souveraineté. Ce triptyque oriente la stratégie à court et moyen terme.
Le dernier mot a porté sur l’humain, la curiosité et l’apprentissage. Le message s’aligne avec l’industrialisation des agents : l’humain pilote, l’IA exécute avec contrôle.
Feuille de route pratique pour dirigeants et équipes : orchestrer l’adoption sans friction
Pour capitaliser sur ces annonces AWS, un plan clair s’impose. D’abord, cadrer les objectifs métier avec des indicateurs précis. Ensuite, choisir les briques : Nova 2/Nova Forge pour les modèles, AgentCore pour la gouvernance, Bedrock/SageMaker pour l’exécution, et Trainium3/Graviton5 pour l’infrastructure.
La gestion du risque passe par des POC maîtrisés. On définit des politiques AgentCore restrictives au départ, on contrôle la mémoire des agents, on trace les appels d’API. Puis, on élargit selon les métriques : qualité, délais, coûts et satisfaction utilisateur. Ce cycle favorise l’acceptation.
Le coût se planifie tôt. Les Database Savings Plans réduisent la facture DB. Les gains énergétiques de Trainium3 pèsent sur le TCO. Le tuning serverless limite les coûts de surcharge. Ainsi, le ROI s’établit sans surprises.
Playbook d’adoption et gouvernance continue
Voici un playbook synthétique. Au mois 1, cartographier les opportunités et lancer un atelier Nova Forge. Au mois 2, déployer un agent limité avec Policy et mémoire courte. Au mois 3, industrialiser avec monitoring, journaux, et revue sécurité.
La gouvernance se renforce chaque trimestre. On révise les politiques, on réentraîne les modèles avec des données fraîches, on audite les coûts. Ensuite, on publie un rapport interne qui compare les gains aux objectifs. Ce rituel installe la transparence.
- Mo. 1 : cadrage, atelier Nova Forge, KPIs.
- Mo. 2 : POC agent, Policy stricte, évaluation.
- Mo. 3 : prod, monitoring, post-mortems.
| Pilier | Outil AWS | Action | Résultat visé |
|---|---|---|---|
| Modèle | Nova 2 + Nova Forge | Personnaliser sur données | Performance ciblée |
| Agent | AgentCore | Définir Policy, mémoire | Contrôle et traçabilité |
| Dev/MLOps | Bedrock + SageMaker | RFT, serverless tuning | Cycle réduit |
| Infra | Trainium3, Graviton5 | Dimensionner ressources | Coût/énergie optimisés |
| Coûts | Database Savings Plans | Engagement 1 an | -35% DB |
Ce canevas donne une trajectoire lisible à des équipes pluridisciplinaires. L’alignement produit/tech/finances maximise l’impact sans lourdeur organisationnelle.
On en dit quoi ? Vision synthèse sur les annonces AWS de re:Invent 2025
La stratégie AWS met l’agent au centre et rapproche modèles, gouvernance et infrastructure. Les entreprises disposent d’un kit cohérent pour bâtir, sécuriser et scaler. Les gains annoncés sur l’énergie et le coût renforcent l’argumentaire économique.
Le défi reste la discipline : cadrer les agents, mesurer en continu et former les équipes. Avec ce triptyque, les promesses de l’agentic AI se concrétisent. Le moment est propice pour passer de l’expérimentation à l’industrialisation.
Qu’est-ce que Nova Forge et à qui s’adresse le service ?
Nova Forge est un service AWS qui permet de personnaliser des modèles Nova avec des données propriétaires. Il vise les équipes qui veulent un modèle adapté à un métier précis, avec un abonnement annuel et une gouvernance intégrée pour la sécurité.
Quels sont les avantages de Trainium3 par rapport aux générations précédentes ?
Trainium3 annonce jusqu’à 4x de gains sur l’entraînement et l’inférence, et une consommation d’énergie réduite d’environ 40%. Ces améliorations diminuent le temps de convergence et le TCO des workloads IA.
Comment contrôler les actions d’un agent dans AgentCore ?
AgentCore propose des politiques (Policy) pour définir les droits, une mémoire configurable et des journaux d’activité. Treize évaluations préconstruites permettent aussi de tester robustesse et sécurité avant un déploiement large.
Qu’apportent les Database Savings Plans ?
Ces plans offrent jusqu’à 35% d’économies en échange d’un engagement horaire sur un an. Les remises s’appliquent automatiquement aux services DB éligibles, et le surplus est facturé au tarif à la demande.
Comment débuter avec la personnalisation de modèles ?
On peut démarrer via la personnalisation serverless de SageMaker ou le Reinforcement Fine Tuning de Bedrock. Un atelier initial sur Nova Forge aide à sélectionner les données et les objectifs, puis on évalue les résultats avant l’industrialisation.
Journaliste tech passionné de 38 ans, je décrypte chaque jour l’actualité numérique et j’adore rendre la technologie accessible à tous.








