Amazon EC2 agrandit sa famille d’instances X1 et augmente son SLA
Amazon Web Services propose différentes familles d'instances, optimisées pour répondre à vos différents besoins :
- Instances d'usage général (équilibre de ressources de calcul, de mémoire et de réseau) : T2, M4, M3 Instances orientées calcul (CPU) : C4, C3
- Instances à mémoire optimisée (RAM) : R3
- Instances destinées aux applications GPU : G2
- Instances à stockage optimisé : I2, D2.
Depuis le 18 mai 2016, une nouvelle famille d'instances arrive sur AWS : les instances X1 , qui sont les plus larges instances proposant une mémoire optimisée. D’abord proposé uniquement en x1e.32xlarge, cette famille - alimentées par des processeurs Intel ® Xeon ® E7 8880 à quatre cœurs fonctionnant à 2,3 GHz - se décline depuis le 13 novembre en 6 tailles :
Modèle | vCPUs | Mémoire (GiB) | Stockage SSD (Go) | Performances de mise en réseau |
x1e.xlarge | 4 | 122 | 120 | Jusqu'à 10 Gbps |
x1e.2xlarge | 8 | 244 | 240 | Jusqu'à 10 Gbps |
x1e.4xlarge | 16 | 488 | 480 | Jusqu'à 10 Gbps |
x1e.8xlarge | 32 | 976 | 960 | Jusqu'à 10 Gbps |
x1e.16xlarge | 64 | 1 952 | 1 920 | 10 Gbps |
x1e.32xlarge | 128 | 3 904 | 3 840 | 25 Gbps |
Autre nouvelle de taille : l'accord de niveau de service (SLA) pour EC2 et EBS passe à 99,99%, pour toutes les régions et pour tous les clients AWS. Pour rappel, le SLA d’Amazon EC2 était jusqu’à ce jour de 99,95%.
- Tous ces points peuvent être retrouvés dans le blog de Jeff Barr (en).
L’auto-Scaling arrive sur Amazon Aurora
Annoncé lors de l'AWS re:Invent 2014 - la keynote Annuelle d'Amazon Web Services - Amazon Aurora est un moteur de base de données relationnelle compatible avec MySQL 5.6.
Conçue pour tirer le meilleur profit des architectures Cloud - 99,99% de disponibilité, réplication continue, sauvegardes automatisées dans Amazon S3 etc - un des grands avantages d'Aurora est la capacité de séparer les lectures et les écritures.
Si ces dernières devront être faites sur le master, les replicas eux pourront répartir les lectures, et donc décharger le master de bon nombre de sollicitations ! Ces read-replicas – jusqu’à 15 Read-Replicas par Master ! – pourront être accédés via un unique EndPoint qui répartira ensuite la charge uniformément.
Depuis le 17 novembre 2017, Amazon Aurora va encore un peu plus loin en proposant de l’Auto Scaling pour les replicas d‘Amazon Aurora.
Comme pour Amazon EC2, l’Auto Scaling permet d’ ajouter et de supprimer des ressources sur la bases de métriques que vous pouvez définir via la console, les SDK ou la CLI AWS : utilisation moyenne du CPU, le nombre moyen de lectures sur votre cluster, ou métriques custom.
Les dernières améliorations de l’auto-scaling pour EC2 - comme le target tracking annoncé cet été - sont également présentes dans cette version Aurora.
- Plus d'informations dans la documentation officielle AWS (EN) ici.
2 nouveautés pour Amazon ECS
Compatible avec Docker, Amazon ECS permet de programmer le placement des conteneurs sur votre cluster en fonction de vos besoins en ressources, des stratégies d'isolation et des exigences en termes de disponibilité. Avec Amazon ECS, vous n'avez plus besoin d'utiliser vos propres systèmes de gestion de cluster et de configuration, ni de vous soucier du dimensionnement de votre infrastructure de gestion.
Nous vous en parlions il y a deux semaines pour la prise en charge les paramètres Docker Device et Init flag et la possibilité des applications d’ accéder aux metadatas de leurs environnements Amazon ECS.
C’est donc à grand train que sortent les nouveautés sur Amazon ECS a quelques semaines du Re:Invent qui devrait faire la part belle aux conteneurs.
- Amazon ECS peut utiliser le mode AWSVPC pour la mise en réseau des conteneurs
Les tâches en cours d'exécution sur Amazon ECS peuvent désormais utiliser le mode AWSVPC pour la mise en réseau des conteneurs. Ce nouveau mode alloue une interface réseau Elastic à chaque tâche en cours d'exécution, qui bénéficie alors d'une adresse IP privée dynamique et d'un nom DNS interne. Cela simplifie les opérations de mise en réseau des conteneurs et permet d'exécuter des tâches sur AWS avec des fonctionnalités de mise en réseau complètes, comme des instances EC2.
Il n’est donc plus nécessaire de mapper les port sur chaque conteneur et de les assigner dynamiquement pour éviter les conflits !
Désormais, les utilisateurs peuvent définir une définition de tâche Amazon ECS pour utiliser le mode de mise en réseau AWSVPC. Cela permet d'assigner directement des interfaces réseau Elastic à des tâches Amazon ECS en cours d'exécution sur les sous-réseaux VPC désignés par l'utilisateur. Cette interface réseau Elastic de niveau tâche permet d'assigner des groupes de sécurité EC2 et d'utiliser des outils standard de surveillance du réseau de niveau conteneur. La gestion de la configuration réseau s'en trouve simplifiée, ce qui vous permet de traiter chaque conteneur comme une instance EC2 avec des fonctionnalités de mise en réseau complètes dans le VPC.
- Afficher et filtrer des services Amazon ECS
Amazon EC2 Container Service (Amazon ECS) vous permet désormais d'afficher et de filtrer des services dans AWS Management Console. Auparavant, vous pouviez afficher seulement 10 services Amazon ECS par page dans AWS Management Console. Si vous aviez de nombreux services, vous deviez parcourir plusieurs pages pour trouver un service en particulier. À présent, vous pouvez afficher jusqu'à 100 services Amazon ECS dans une même page AWS Management Console et filtrer la liste des services par nom de service, balise, statut ou nom de définition de tâche. Cette fonctionnalité permet de gérer plus facilement de nombreux services Amazon ECS dans AWS Management Console.
- Plus d'informations dans le blog Compute officiel AWS (EN).
Les autres nouveautés de la semaine sur Amazon Web Services :
- Support d’OpenGL 4.2 pour les Amazon EC2 Elastic GPUs
- AWS Step Functions vous permet de mettre à jour le statut de vos State Machines
C'est tout pour cette semaine ! Vous êtes désormais au top de l'actualité sur AWS :)
N'hésitez pas à nous faire vos retours sur notre twitter @Osones, ou à contacter nos Experts si vous avez besoin d'aide !
Découvrez les derniers articles d'alter way
- Big Data & AI Paris 2024 : L'IA au cœur de toutes les transformations.
- Un retour vers l'open-source ? Vos outils DevOps préférés et leurs equivalents open-source.
- Prowler : L'outil de sécurité multi-cloud indispensable pour renforcer votre infrastructure
- Kubernetes : plateforme "star" de l'IT et levier d'innovation des entreprises
- AI_dev2024
- : DirectPV : Avoir du stockage bloc distribué facilement dans kubernetes