Membre depuis le 02/03/2020
hello pour les NVMe c'est casi toujours none qui est le mieux. les NVMe sont tellement rapides qu'un scheduler logiciel ajoute juste du overhead. le hardware gère déjà super bien les files d'attente.
Membre depuis le 27/09/2023
ouais j'ai lu ça pas mal de fois. mais c'est bizarre que mq-deadline soit le défaut si c'est pas optimal. y a des cas où none c'est pas une bonne idée ?
Membre depuis le 20/12/2019
mq-deadline est un bon compromis pour les disques rotatifs et même les SATA SSD plus anciens. mais pour les NVMe modernes oui none est souvent la meilleure option. le kernel s'attend à ce que le device gère sa propre queue d'i/o de manière intelligente. y a peu de chances de casser quoi que ce soit si tu passes à none pour du NVMe.
Membre depuis le 02/03/2020
non aucun risque. c'est le setup recommandé par pas mal de vendors et les docs kernel. tu peux le changer à chaud pour tester. si ça dégrade les perfs tu reviens à mq-deadline. pas besoin de reboot.
echo none | sudo tee /sys/block/nvme0n1/queue/scheduler
Membre depuis le 27/09/2023
ok je vais tenter ça sur une VM de staging d'abord pour voir. si c'est concluant je le pousse en prod. thx pour le conseil. je vous tiens au jus.
Membre depuis le 27/09/2023
bon j'ai testé et c'est le jour et la nuit ! la latence médiane a été divisée par 3. incroyable l'impact d'un simple scheduler. merci beaucoup !
Membre depuis le 02/03/2020
cool à savoir ! content que ça ait résolu ton souci
Vous devez être connecté pour poster un message !
Recevoir les derniers articles gratuitement en créant un compte !
S'inscrire
gerard03
Membre depuis le 27/09/2023
Yo la gang ! on a des VMs avec des NVMe sur un kernel linux 5.x. On fait tourner une base de données avec beaucoup d'i/o aléatoires et la latence est horrible par moment. on est sur le scheduler mq-deadline par défaut. vous pensez que ça vaut le coup de switcher sur none ou kyber ? c'est de la prod donc pas envie de tout casser.
affiche:
[mq-deadline] kyber bfq none