Membre depuis le 14/05/2020
t'as regardé la cardinalité de tes métriques ? si t'as trop de labels dynamiques ça explose la taille des chunks meme avec une petite retention. genre un label avec un uuid pour chaque requete c'est le mal pour prometheus
Membre depuis le 21/06/2020
regarde le
/metrics de prometheus lui meme tu as des infos sur la taille des chunks et la retention. tu peux aussi affiner le storage.tsdb.retention.size en plus de la durée pour avoir un hard limit en go
Membre depuis le 26/09/2019
sinon t'as une option pour faire du downsampling avec Thanos ou Mimir pour réduire le volume des vieilles métriques. ou si c'est vraiment juste pour la durée tu peux virer les trucs superflus et pas critiques
Membre depuis le 10/12/2019
ok la cardinalité c ça ! on avait un label genre
request_id
sur toutes les requêtes http. j'ai viré ce label via le config scraping et le disque a commencé à se vider après un petit moment. thx pour le coup de main c'était bien ça le souciVous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
lesage-pauline
Membre depuis le 10/12/2019
yo on a prometheus qui remplit son disque tous les mois c'est un enfer. on a mis 30j de retention mais ça change rien j'ai l'impression. j'ai 500go de métriques après quelques semaines c'est nimp