Membre depuis le 12/01/2024
Hello la team FinOps. On fait une analyse de coûts sur AWS et on a un truc qui nous turlupine. On a des buckets S3 avec des objets en Glacier Deep Archive pour de l'archivage long terme. On pensait que c'était super cheap mais les factures commencent à piquer. En regardant de plus près on voit des frais de récupération (data retrieval) énormes. Je comprends pas on récupère rien d'important.
# Extrait de facture AWS (simplifié)
{
"product/storageClass": "GLACIER_DEEP_ARCHIVE",
"lineItem/UsageType": "EU-TimedStorage-ByteHrs",
"lineItem/NetUnblendedCost": "100.00"
},
{
"product/storageClass": "GLACIER_DEEP_ARCHIVE",
"lineItem/UsageType": "EU-DataRetrieval-DeepArchive",
"lineItem/NetUnblendedCost": "500.00"
}
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
Commentaires
sabine-poirier
Membre depuis le 16/07/2024
Ah le piège classique de Deep Archive. c mega cheap pour stocker mais la récupération coûte cher. T'es sûr que y a pas un truc qui scanne tes buckets régulièrement ? Des lambda qui déclenchent un S3 inventory ou un service de security tooling qui fait des vérifications d'intégrité sur des objets par exemple ? Ça compte comme du retrieval même si tu le lis pas.
duval-david
Membre depuis le 19/06/2024
yep faut faire gaffe aussi aux requêtes s3. même une simple
peut pas être gratuite si elle déclenche des métadonnées sur des objets en Deep Archive. Et les via s3 select / glacier select pareil ça coûte. t'as regardé les cloudtrail logs pour voir qui initie les appels à s3 sur ces buckets ?marcelle70
Membre depuis le 20/05/2024
Un truc que j'ai vu souvent c'est des cycles de vie mal configurés. Genre des objets qui passent en Deep Archive puis sont supprimés avant la durée minimale de stockage (90 ou 180 jours pour Deep Archive). La suppression anticipée coûte des pénalités équivalentes à la durée restante de stockage. C'est pas du retrieval mais ça gonfle la facture.
michel69
Membre depuis le 12/01/2024
ouais les CloudTrail j'ai checké et c'est bizarre je vois des appels à
ou qui viennent d'un compte IAM que je connais pas super bien. Je pense que c'est un outil de backup ou de compliance qu'un ancien a mis en place et qu'on a oublié. Ça semble bien être des retrievals intempestifs. Les cycles de vie sont corrects par contre. Pas de suppression anticipée.sabine-poirier
Membre depuis le 16/07/2024
Bingo ! Un outil oublié ça coûte un bras en général. Faut identifier le service ou la lambda associée à cet IAM user et voir pourquoi il restore des trucs. Deep Archive c'est vraiment pour quand tu sais que tu vas quasi jamais récupérer. Pour du "rarement mais quand même" c'est plutôt Glacier ou S3 Infrequent Access.
duval-david
Membre depuis le 19/06/2024
c clair. Faut que tu mettes en place des alertes sur les coûts de data retrieval pour Deep Archive sur CloudWatch. Quand ça dépasse un seuil ça te notifie direct. Ça t'aidera à attraper ce genre de truc avant que la facture arrive.
marcelle70
Membre depuis le 20/05/2024
et si c'est vraiment juste pour de l'audit et pas de la récupération à chaud, regarde si tu peux pas utiliser s3 inventory pour juste avoir la liste des objets sans les restaurer. ou même s3 batch operations pour faire des trucs sur les objets sans retrieval total.
michel69
Membre depuis le 12/01/2024
ok je vais enquêter sur cet IAM user et voir ce qui tourne derrière. Et les alertes CloudWatch sur les coûts c'est une super idée, je vais configurer ça direct. Et on va revoir notre stratégie de stockage pour Deep Archive, clairement on l'utilise pas comme il faut. Merci à tous pour les infos, ça m'éclaire bien !