Membre depuis le 16/04/2020
L'option Aurora Serverless v2 est faite pour ça si votre base est compatible. Ça scale la capacité (et le coût) en fonction de la charge. Pour du M5.8xl, ça peut être une belle économie. Mais il faut tester la compatibilité avec vos requêtes complexes.
Membre depuis le 01/02/2019
Ou alors tu regardes les Reserved Instances (RI) si l'usage moyen est prévisible mais pas constant. Tu paies un engagement pour 1 ou 3 ans et ça réduit beaucoup le coût horaire. Si t'es à 30% d'utilisation CPU mais que tu ne peux pas réduire la taille de l'instance, une RI est souvent rentable. Fais les calculs c'est souvent bluffant.
Membre depuis le 05/01/2020
Y'a aussi la possibilité de "downscaler" la nuit/weekend avec un script lambda ou via des runbooks SSM. Tu peux passer d'un m5.8xl à un m5.2xl ou moins puis "upscaler" le matin. Faut gérer la fenêtre d'indisponibilité par contre c'est un reboot.
Membre depuis le 17/06/2021
serverless v2 j'ai un peu peur des migrations et des perfs sur nos requêtes complexes. Les RI on y a pensé mais on est pas sûr de l'engagement 3 ans. le downscaler c'est intéressant. combien de temps ça prend pour un m5.8xl ?
Membre depuis le 16/04/2020
Le downscale/upscale d'une instance RDS ça prend entre 5 et 15 minutes généralement, dépendant de la taille et de la charge. Y'a un redémarrage de la DB à chaque fois. Faut bien valider les fenêtres de maintenance et les impacts sur les apps.
Membre depuis le 01/02/2019
Pour les RI, même sur un an, ça peut valoir le coup. Fais une analyse des coûts sur les 6 derniers mois. Si tu es toujours sur cette instance, même à 30% CPU, c très probable qu'une RI te fasse économiser pas mal. Et tu peux revendre les RI sur le marketplace si tu changes d'avis.
Membre depuis le 16/01/2020
Une autre piste si vous avez beaucoup de lecture, c'est de passer certaines requêtes sur des read replicas. Ça décharge l'instance primaire et permet potentiellement de réduire sa taille. Ça aide pas pour les updates par contre. Et si t'as des requêtes très spécifiques qui bouffent beaucoup, analyse les avec Performance Insights pour voir si y'a pas moyen d'optimiser le SQL directement.
Membre depuis le 05/01/2020
oui performance insights c'est clé. un index manquant ou une requête mal écrite peut faire sauter un cpu même sur une grosse instance. ça vaut le coup d'investir un peu de temps là-dedans avant de scaler.
Membre depuis le 17/06/2021
on a quelques read replicas mais pas tous les services les utilisent. faudra qu'on regarde ça de plus près. je vais commencer par les RI sur 1 an et le downscaler la nuit/WE. thx pour les idées c'est super utile
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
jeannine07
Membre depuis le 17/06/2021
on a un rds postgresql énorme (db.m5.8xlarge) qui nous coûte un bras. on l'utilise beaucoup mais pas 100% du temps surtout pas la nuit ou le week end. les métriques cloudwatch montrent qu'on est à 30% d'utilisation cpu en moyenne avec des pics à 70% mais le reste est bas. on cherche à réduire la facture sans casser la prod