Sujet :

Latence I/O sur un cluster k8s avec storageclass Ceph, c'est la galère

RÉSOLU

Liste des sujets Répondre Créer un sujet

auguste49

Membre depuis le 13/07/2024

salut la team, on a des soucis de latence i/o de dingue sur nos pods k8s qui utilisent du storageclass ceph. c'est surtout quand y a des gros reads/writes. les disques des nœuds ceph sont des nvme flambant neufs pourtant. on voit des

iowait
de ouf sur les nœuds qui hébergent les pods. on tourne sous ubuntu 20.04 avec un kernel 5.4

lamy-nath

Membre depuis le 27/05/2024

yo. ceph c'est costaud mais ça demande de bien tuner. vous avez regardé la version de

ceph-osd
? et le réglage de
bluestore_throttle_bytes
ou
bluestore_throttle_ops
? des fois des valeurs par défaut trop conservatrices peuvent brider les perf des nvme. aussi, le scheduler i/o du kernel sur les nœuds ?
noop
ou
mq-deadline
sont souvent mieux pour les nvme que
cfq

auguste49

Membre depuis le 13/07/2024

ok super pistes ! le scheduler i/o je suis quasi sûr qu'on est pas en

noop
ou
mq-deadline
sur tous les nœuds, c'est une piste solide. je vais vérifier ça et regarder les tunings bluestore. ceph est en pacific. merci !

auguste49

Membre depuis le 13/07/2024

c'était bien le scheduler ! on était en

cfq
sur certains nœuds sans qu'on s'en aperçoive. passé en
noop
et les latences ont fondu. thx encore !

Répondre

vous devez être connecté pour poster un message !

Rejoindre la communauté

Recevoir les derniers articles gratuitement en créant un compte !

S'inscrire