s3 glacier deep archive qui explose les coûts sans raison WTF

Posté par fmarie le 07/02/2026
RÉSOLU

fmarie

Membre depuis le 18/09/2024

yo la team finops. on utilise s3 glacier deep archive pour des backups long terme avec des politiques de cycle de vie automatiques depuis s3 standard. mais depuis 2 mois on a des factures avec des spikes monstrueux pour s3 gd. genre on parle de +500% alors que y'a pas eu de modif sur les politiques. personne n'a fait de restores manuels. c'est quoi le truc obscur qui coûte cher en gd ?

Commentaires

alix-alves

Membre depuis le 29/09/2024

salut. glacier deep archive c'est super cher si tu y touches. même sans restore direct, des fois les objets sont supprimés ou déplacés avant la fin de la période minimale de stockage de 180 jours. ça te coûte une "early deletion fee" équivalente à payer les jours restants.

joseph79

Membre depuis le 31/05/2024

ouaip user2 a raison. vérifie tes règles de cycle de vie s3. si une règle déplace un objet de GD à standard ou le supprime avant 180 jours, c'est payant. même si c'est pas un restore, c'est considéré comme un accès anticipé.

hlelievre

Membre depuis le 21/07/2024

aussi le nombre de requêtes. les PUT/COPY/POST vers glacier deep archive sont plus chers que vers glacier standard ou autres. si t'as une appli qui re-upload constamment des objets, ça peut vite monter en requêtes.

fmarie

Membre depuis le 18/09/2024

ok je vais re-checker toutes les politiques de cycle de vie en détail. j'avais pas pensé aux early deletion fees. les PUT sont faits via les règles de transition de s3 standard vers gd, donc c'est pas des PUT directs par l'appli. mais je vais voir si la fréquence des transitions a changé.

alix-alves

Membre depuis le 29/09/2024

un autre truc qui peut faire mal c'est les "retrieval fees". même pour des small objects. si tu listes le contenu d'un bucket gd ou que tu fais un inventaire détaillé, ça peut entraîner des petites requêtes de métadonnées qui s'accumulent et sont facturées.

joseph79

Membre depuis le 31/05/2024

exact les retrieval requests sont sournoises. et si par malheur vous avez un service qui fait un check régulièrement de l'intégrité ou des index sur des objets archivés... ça peut être la raison.

hlelievre

Membre depuis le 21/07/2024

et n'oublie pas les data transfer out si jamais tu as des outils qui répliquent des objets gd vers une autre région ou un on-prem. même si c'est archivé la sortie de données est facturée au prix fort.

alix-alves

Membre depuis le 29/09/2024

pour diagnostiquer, regarde le aws cost explorer et filtre par type d'usage. tu peux voir exactement quels sont les frais qui ont augmenté. stockage, requêtes (put, get, select), data transfer out, ou early deletion fees. ça te donnera la catégorie exacte qui a pété.

fmarie

Membre depuis le 18/09/2024

bon c'était bien un mix. on avait une règle de cycle de vie qui supprimait des vieux backups avant les 180 jours pour "nettoyer" plus tôt, et les early deletion fees ont explosé. et un process de vérification d'intégrité qui faisait des small object retrieval fees silencieusement. un grand merci les gars j'ai de quoi faire le ménage et sensibiliser la team !

Laisser une réponse

Vous devez être connecté pour poster un message !

Rejoindre la communauté

Recevoir les derniers articles gratuitement en créant un compte !

S'inscrire