Peter DeSantis prend la tête de l'IA, des puces et du quantique chez AWS
AWS réorganise ses équipes IA en confiant à Peter DeSantis une nouvelle organisation qui regroupe les modèles Nova, les puces custom et le quantique.
Mis à jour le 8 January 2026
Peter DeSantis n’est pas un nom que vous croisez dans les médias grand public. Pourtant, si vous utilisez AWS, vous utilisez son travail. Depuis 27 ans, cet ingénieur a construit une partie significative de l’infrastructure qui fait tourner environ un tiers d’Internet. Il a dirigé le lancement d’Amazon EC2 en 2006, le service qui a popularisé le cloud computing tel qu’on le connaît aujourd’hui. Il a piloté l’acquisition d’Annapurna Labs en 2015, le laboratoire israélien qui conçoit les puces custom d’AWS. Il a supervisé pendant 8 ans l’infrastructure mondiale d’AWS, ces milliers de serveurs répartis dans 21 régions et 66 zones de disponibilité.
Ses présentations techniques annuelles au re:Invent sont devenues légendaires parmi les ingénieurs. Pas de marketing, pas de slides colorés. Juste des schémas d’architecture, des graphiques de performance, et des explications sur comment AWS a résolu tel problème de latence ou optimisé tel composant matériel. Le 7 janvier 2026, Andy Jassy a annoncé que DeSantis prenait la tête d’une nouvelle organisation qui regroupe trois des paris technologiques les plus ambitieux d’Amazon : les modèles d’intelligence artificielle Nova, les puces custom, et le calcul quantique.
Une réorganisation qui dit beaucoup sur la stratégie AWS
Cette nouvelle organisation rapporte directement à Andy Jassy, le CEO d’Amazon, et non au CEO d’AWS. Ce détail organisationnel n’est pas anodin. Il signale qu’Amazon considère ces technologies comme stratégiques au niveau du groupe, pas seulement pour AWS. Les modèles Nova alimentent déjà Alexa, la publicité Amazon, et les systèmes de recommandation du e-commerce. Les puces Graviton équipent une partie croissante de l’infrastructure interne d’Amazon. Le quantique reste un pari à très long terme, mais Amazon y investit massivement.
La décision de regrouper ces trois domaines sous une même direction révèle la thèse d’AWS : ces technologies vont se renforcer mutuellement. Les modèles d’IA deviennent plus gros et plus coûteux à entraîner. Les puces custom permettent d’optimiser le rapport performance par euro dépensé. Les avancées en conception de puces accélèrent le développement des processeurs quantiques. Et les modèles d’IA aident à résoudre certains problèmes de calibration des systèmes quantiques.
Peter DeSantis l’explique sans détour dans l’interview publiée par Amazon : construire des modèles d’IA de plus en plus capables nécessite des investissements massifs en calcul. Disposer de puces optimisées pour ces charges de travail donne un avantage compétitif. Les équipes qui développent Nova savent où la recherche en IA va aller dans les deux prochaines années. Cette connaissance influence la feuille de route des puces, qui prennent plusieurs années à concevoir. Faire travailler ces deux équipes ensemble, de manière coordonnée mais pas rigide, crée un effet de levier.
Ce qui arrive dans vos mains en 2026
Les trois produits que DeSantis cite comme priorités immédiates sont Graviton 5, Trainium3, et Nova Forge. Graviton 5 a été annoncé au re:Invent en décembre 2025. C’est le processeur généraliste le plus performant qu’AWS ait jamais produit. Les générations précédentes de Graviton convenaient bien à certaines charges de travail mais pas à toutes. Graviton 5 change la donne : presque n’importe quelle application qui tourne sur AWS devrait maintenant mieux fonctionner sur Graviton que sur les processeurs x86 classiques, avec un coût inférieur.
Trainium3 est l’accélérateur IA annoncé au même événement. Il cible l’entraînement de modèles d’IA à grande échelle. AWS affirme qu’il offre de meilleures performances que les GPU concurrents pour un coût moindre. Les premiers clients testent déjà le matériel. Si vous entraînez des modèles ou si vous utilisez des services d’inférence intensifs, Trainium3 devrait réduire votre facture.
Nova Forge est la capacité qui permet de prendre un modèle Nova existant et de le personnaliser avec vos propres données pour créer ce qu’AWS appelle une Novella. Ce n’est pas du fine-tuning classique. C’est une personnalisation profonde qui adapte le modèle à votre domaine métier spécifique. Un modèle optimisé pour le e-commerce ne fonctionne pas bien pour Alexa. Un modèle conçu pour la publicité a des besoins différents d’un modèle qui pilote des robots dans un entrepôt. Nova Forge permet à chaque division d’Amazon, et à chaque client AWS, de construire son propre modèle frontier sans repartir de zéro.
Ce que cela change pour votre entreprise
Si vous utilisez AWS pour héberger vos applications, Graviton 5 devrait figurer dans vos discussions d’architecture pour 2026. La migration depuis des instances x86 vers Graviton est généralement simple pour les applications conteneurisées ou les langages interprétés. Les gains de coût peuvent atteindre 20 à 30% selon les charges de travail. Nous avons accompagné plusieurs clients alsaciens dans cette migration et les résultats sont systématiquement positifs.
Si vous utilisez des modèles d’IA en production, deux évolutions méritent votre attention. La première est l’arrivée de Trainium3 dans les services d’inférence AWS. Vous ne gérez pas directement les puces, mais les services comme Amazon Bedrock qui utilisent ces puces devraient devenir plus performants et moins coûteux. La seconde est Nova Forge. Jusqu’à présent, personnaliser un modèle frontier nécessitait des compétences rares et des budgets conséquents. Nova Forge industrialise ce processus. Si vous avez des données métier spécifiques et des cas d’usage qui ne fonctionnent pas bien avec les modèles génériques, cette capacité change la donne.
Le calcul quantique reste hors de portée pour la plupart des entreprises en 2026. AWS développe la puce Ocelot et propose déjà Amazon Braket pour expérimenter avec des ordinateurs quantiques. Mais Peter DeSantis est clair : il faudra encore plusieurs années avant que le quantique ne résolve des problèmes métier concrets. C’est un investissement long terme qui ne devrait pas influencer vos décisions d’architecture aujourd’hui.
Le pari long terme d’AWS
Cette réorganisation révèle une conviction forte chez AWS : l’IA ne sera pas un marché où un acteur achète des GPU à un fournisseur et loue du temps de calcul à des clients. Ce sera un marché où l’intégration verticale entre les puces, les modèles, et les applications crée un avantage durable. Amazon contrôle déjà toute la chaîne : il conçoit ses puces, entraîne ses modèles, et déploie ces modèles dans des applications qui touchent des centaines de millions d’utilisateurs.
Pour vous, client AWS, cela signifie deux choses. La première est que vos investissements dans l’écosystème AWS devraient continuer à bénéficier d’améliorations de performance et de réductions de coût au fil des années. AWS ne dépend pas d’un fournisseur de GPU externe qui pourrait augmenter ses prix ou rationner l’approvisionnement. La seconde est que les services d’IA d’AWS devraient devenir de plus en plus différenciés par rapport aux offres concurrentes, grâce à cette intégration entre matériel et logiciel.
Peter DeSantis a passé 27 ans à construire des systèmes qui fonctionnent à l’échelle d’Internet. Il ne fait pas de promesses marketing. Il construit des infrastructures qui tiennent leurs engagements de disponibilité et de performance année après année. Le fait qu’Amazon lui confie ses trois paris technologiques les plus ambitieux dit beaucoup sur l’importance que l’entreprise accorde à ces domaines. Et sur la volonté de les faire fonctionner ensemble plutôt que de les laisser évoluer en silos.
Questions fréquentes
- Qui est Peter DeSantis ?
- Peter DeSantis a passé 27 ans chez Amazon. Il a dirigé le lancement d'Amazon EC2 en 2006, piloté l'acquisition d'Annapurna Labs en 2015, et supervisé l'infrastructure AWS pendant 8 ans. Il rapporte désormais directement à Andy Jassy.
- Que regroupe cette nouvelle organisation ?
- La nouvelle organisation réunit les modèles d'IA Amazon Nova, les puces custom (Graviton, Trainium, Inferentia, Nitro), et les travaux sur le calcul quantique. Ces trois domaines étaient auparavant dispersés dans différentes équipes AWS.
- Qu'est-ce que cela change pour les clients AWS ?
- Les clients bénéficieront d'une meilleure intégration entre les puces custom et les modèles Nova, ce qui devrait se traduire par de meilleures performances et des coûts d'inférence réduits. Nova Forge permet déjà de personnaliser les modèles Nova avec vos propres données.
- Quand le calcul quantique sera-t-il disponible ?
- Peter DeSantis indique que le quantique est l'investissement le plus long terme des trois. Il faudra encore plusieurs années avant de voir des applications concrètes, mais AWS développe déjà la puce quantique Ocelot.
Articles similaires
AWS re:Invent 2025 : les annonces clés pour les entreprises
Résumé des annonces majeures d'AWS re:Invent 2025 : Graviton5, Nova 2, agents autonomes, Kiro et ce que cela signifie pour les entreprises.
Coder 10x plus vite avec l'IA : le nouveau calcul du développement agentique
Quand une équipe produit du code 10 fois plus vite grâce à l'IA, tout le reste doit suivre : tests, déploiement, coordination. Retour d'expérience d'une équipe Amazon Bedrock.
AI-DLC : comment l'IA transforme le cycle de développement logiciel
L'AI-Driven Development Life Cycle (AI-DLC) redéfinit le développement logiciel en intégrant l'IA à chaque étape du cycle de vie. Retours d'expérience concrets et résultats mesurables.
Amazon Bedrock : l'IA générative pour les entreprises
Comment Amazon Bedrock permet aux entreprises d'intégrer l'IA générative dans leurs applications avec des modèles de fondation managés et sécurisés.
DORA 2025 : l'IA amplifie vos forces (et vos faiblesses)
Analyse du rapport DORA 2025 sur l'IA dans le développement logiciel. 5 000 professionnels interrogés révèlent que l'IA est un amplificateur, pas une solution miracle.
AWS augmente ses prix de 15% ? Non, c'est plus compliqué que ça
Décryptage de l'augmentation des tarifs AWS EC2 Capacity Blocks : pourquoi les titres alarmistes passent à côté de l'essentiel sur la tarification dynamique.