Měření rychlosti čtení z disku v závislosti na počtu čtenářů

Byl jednou jeden projekt, jehož klíčovou součástí bylo čtení z disků (obecně jakýkoliv storage). Řešily se dva problémy. Jednak čtení z více nezávislých zařízení současně a také co nejvyšší rychlost čtení z jednoho zařízení.

Udělali jsme několik testů a již prvotní testy vyvrátily naši doměnku, že s rostoucím počtem paralelních čtecích procesů musí rychlost nutně klesat. Další testy ukázaly, že rychlost čtení je jednak závislá na počtu čtenárů ale také silně závislá na velikosti čtených dat.

Na následujících grafech je na ose x počet paralelních čtecích procesů, na ose y rychlost čtení. Každý graf je pro jednu velikost souborů, testovalo se na 2kB, 4kb … 1GB souborech. Velikost souborů v daném testu je vždy uvedena v záhlaví grafu.

Testovací adresáře byly vytvořeny ze souborů dané velikosti a splňovaly dvě podmínky. Maximální počet souborů byl omezen na deset tisíc a maximální velikost adresáře na 20GB. Výsledná velikost všech dat byla 220GB, a počet všech souborů potom asi 120 tisíc.

Následující výsledky jsou z prostředí:

  • Operační systém: Debian 6 64b
  • Procesor: Intel Core2 Quad Q8300
  • Paměť: 8GB DDR2
  • Diskové pole: MDADM RAID5 nad 5xHDD, chunk 64kB
  • Pevné disky: 5x SAMSUNG HD103SJ
  • Systém souborů: XFS

Výsledky testu, bez dalšího komentáře.

Příspěvek byl publikován v rubrice Debian, RAID, Systémy souborů, XFS. Můžete si uložit jeho odkaz mezi své oblíbené záložky.

Jeden komentář: Měření rychlosti čtení z disku v závislosti na počtu čtenářů

  1. lzap napsal:

    Hehe hodne zajimavy. na obou koncich je vlastne logaritmicky prubeh. konverguje to.

Komentáře nejsou povoleny.