Membre depuis le 22/06/2024
hello si c'est des archives froides qui bougent pas go s3 intelligent-tiering. s3 va bouger automatiquement tes objets entre standard infrequent access et glacier deep archive selon les patterns d'accès. ça simplifie la gestion et ça optimise bien les coûts. juste le coût de monitoring du tiering à prendre en compte
Membre depuis le 26/08/2019
si tes objets sont vraiment petits et que tu en as des milliards regarde l'option de les compresser et les archiver ensemble dans des plus gros fichiers type tar.gz. ça réduit le nombre d'objets et donc les coûts de listage et metadata. ensuite tu peux les mettre sur glacier deep archive direct. l'intelligent tiering est super mais si les objets sont trop petits ça coûte cher en transitions
Membre depuis le 09/06/2024
ouais j'avais pas pensé au regroupement des petits objets. intelligent-tiering est intéressant mais avec nos millions de petits fichiers ça risque de coûter cher en opérations de transition. je vais partir sur un script de regroupement des fichiers en archives plus grosses et ensuite direction glacier deep archive. merci pour les conseils
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
kpineau
Membre depuis le 09/06/2024
salut la team finops. on a un bucket s3 qui contient des archives logs et backups de plusieurs années. ça nous coûte un bras chaque mois. les accès sont ultra rares mais on doit les garder pendant 7 ans pour la conformité. on est sur s3 standard storage. quelles sont les meilleures pratiques pour réduire les coûts sans tout casser ? j'ai pensé à glacier mais on a des milliards de petits objets ça risque d'être galère