
Simplifier et optimiser vos clusters Kubernetes : le combo gagnant EKS + Karpenter + Auto Mode
Retour d’expérience de Qonto et focus sur Karpenter & EKS Auto Mode
À l’occasion d’une session au Summit AWS 2025, les équipes de Qonto et d’AWS sont revenues sur les bonnes pratiques pour gérer efficacement des clusters Kubernetes à grande échelle. Voici les principaux enseignements à retenir.
Kubernetes : un standard… qui reste complexe à opérer
Kubernetes s’est imposé comme l’orchestrateur de conteneurs de référence. 84 % des entreprises l’utilisent, selon la CNCF, que ce soit en production ou en expérimentation. Ses atouts sont connus :
- Portabilité : du laptop à l’on-prem, en passant par le cloud.
- Support des architectures microservices : agilité, découplage, scalabilité.
Mais derrière ces bénéfices se cache une complexité opérationnelle réelle : scaler les ressources, gérer les mises à jour, sécuriser les déploiements… Tout cela demande du temps et de l’expertise.
Depuis 2017, Amazon EKS (Elastic Kubernetes Service) propose de décharger les équipes de la gestion du control plane. Mais qu’en est-il du data plane et des ressources sous-jacentes ? Comment éviter de passer des heures sur l’optimisation des nœuds ou le patching du système ?
C’est là qu’interviennent Karpenter et EKS Auto Mode.
Karpenter : le scaling intelligent et granulaire
De Cluster Autoscaler à Karpenter : changer de paradigme
Avant Karpenter, le scaling horizontal (HPA) et Cluster Autoscaler étaient les standards. Mais ils reposaient sur des Auto Scaling Groups (ASG), avec plusieurs limites :
- Taille des instances homogène dans un ASG (peu de flexibilité).
- Latence liée à l’intermédiation entre Kubernetes, Cluster Autoscaler et ASG.
- Complexité pour gérer le Spot et les architectures ARM.
Karpenter, projet open source intégré à l’écosystème Kubernetes (SIG Autoscaling), vient casser ces limitations.
Comment fonctionne Karpenter ?
- Il observe les pods en attente de scheduling.
- Il choisit dynamiquement le meilleur type d’instance pour les exécuter.
- Il provisionne directement les instances via l’API EC2 (sans passer par un ASG).
- Il scale de manière fine : petites, moyennes, grandes instances, Spot, On-Demand, ARM, GPU, selon les contraintes de vos workloads.
Node Pools & Node Classes : plus de contrôle, moins de friction
- NodePool : définit les types d’instances autorisées (par ex. : uniquement Graviton, Spot, GPU…).
- NodeClass : configure les instances (subnets, AMI, IAM role, OS version…).
- Support de l’auto-consolidation : Karpenter détecte les nœuds sous-utilisés, déploie de nouveaux nœuds optimisés, et termine les anciens.
Bénéfices concrets pour Qonto :
- Scalabilité granulaire sans dépendance à des groupes statiques.
- Adoption facilitée du Spot avec des économies sur le compute (jusqu’à 55 % combiné à Graviton et consolidation).
- Simplification des mises à jour : changement de version d’OS simplement via la NodeClass.
- Réduction des temps de mise à jour : de plusieurs jours à 1h pour certains clusters.
Aller plus loin avec EKS Auto Mode : l’automatisation poussée de Kubernetes
Le constat : EKS gère déjà le control plane, mais la gestion des nœuds restait à la charge des clients
Avec EKS Auto Mode, AWS va plus loin :
- Gestion automatique du data plane (instances EC2, patching, dimensionnement).
- Sélection dynamique des instances optimales.
- Mises à jour automatiques des nœuds avec OS optimisé (Amazon Linux / Ubuntu).
- Surveillance de l’état de santé des nœuds + correction automatique.
- Compute éphémère : rotation régulière des instances, réduisant la surface d’attaque et les risques liés aux patchs manquants.
La promesse :
Vous déclarez vos pods, AWS gère le reste.
Plus besoin de gérer :
- Le cycle de vie des instances.
- Le patching OS.
- Le monitoring bas niveau.
- La mise à l’échelle (scaling up & scaling down).
Focus sécurité :
- Intégration native avec IAM Pod Identity pour les permissions sur les services AWS.
- Rafraîchissement automatique des pods (patching tous les 14 jours).
- Compute éphémère = renouvellement continu des ressources sous-jacentes.
- Compatibilité avec les services de sécurité AWS (GuardDuty, Security Hub…).
Karpenter + Auto Mode : complémentaires ou concurrents ?
Les deux solutions sont complémentaires :
- Karpenter : idéal si vous avez besoin de contrôle fin sur les types d’instances, les stratégies Spot, les pools par workload (GPU, Graviton, etc.).
- Auto Mode : pour les cas où vous voulez externaliser totalement la gestion du data plane et concentrer vos efforts sur les déploiements applicatifs, sans gérer d’infrastructure.
Chez Qonto :
- Karpenter optimise les clusters actuels avec une gestion granulaire des instances.
- Auto Mode est exploré pour continuer à réduire la maintenance et déléguer davantage d’opérations non différenciantes à AWS.
Pourquoi ces choix technologiques comptent ?
Chez Qonto, ce sont 15 clusters, 15 000 pods et 200 déploiements par jour.
Avec ce niveau d’activité, maintenir un bon équilibre entre :
- Disponibilité.
- Sécurité.
- Scalabilité.
- Coût maîtrisé.
…devient un défi majeur. L’automatisation via Karpenter et Auto Mode permet de libérer les équipes des tâches les plus répétitives et chronophages.
Conclusion : Kubernetes à grande échelle, mais sans douleur
Scalabilité, coûts, sécurité, maintenance : les défis Kubernetes sont nombreux. Avec EKS, Karpenter et EKS Auto Mode, AWS propose un ensemble cohérent pour :
- Accélérer les déploiements.
- Simplifier la gestion opérationnelle.
- Optimiser les coûts de calcul.
- Sécuriser les clusters par défaut.
L’expérience de Qonto montre que ces outils sont non seulement efficaces, mais surtout adaptés à une gestion Kubernetes à grande échelle.
Et si vous pouviez, vous aussi, passer plus de temps à innover… et moins à patcher vos nœuds ?
Découvrez les derniers articles d'alter way