Rubrika: ZFS
-
Nová verze OpenZFS a rychlejší scrub
Není to sice úplně horká novinka, tohle je tam už asi rok, ale scrub by měl probíhat lineárně (výhodné pro HDD) a je to skutečně mnohem rychlejší: scrub in progress since Sun May 4 15:57:40 202538.3G / 12.9T scanned at 1.46G/s Pole typu RaidZ1 z 5 Seagate NAS disků. Tedy cca 300MB/s disk, všechny disky…
-
Vlastní databáze velkých souborů
Po 17 letech (od roku 2008 do 2025) opouštím skvělou databázi PostgreSQL. Která letos slaví krásných 30 let. Mě je letos 43 let. Tedy s touto databází jsem prožil velmi příjemnou polovinu mého IT života. A jediný důvod, proč PostgreSQL opouštím, je nedostatečná velikost datového typu BYTEA. Ten má limit pouze 1GB. Více popíšu dále…
-
ZFS má rád pořádek
Volné pokračování našeho seriálu o pomalém ZFS. Poslední díl byl někdy v červnu, kdy jsem vyzkoušel paralelní přístup k souborům a zdá se, že to pomohlo (pro specifické věci). Od té doby jsem udělal nějaké další změny a potom se věnoval něčemu jinému a nechal jsem to tak. Teď, po půl roce, jsem si opět…
-
Pomalé ZFS – zkuste to paralelně, milý admine
Celým detektivním seriálem ([1], [2], [3]) o nepříliš výkonném ZFS na FreeBSD se line jedna myšlenka. Zda náhodou ZFS nebo ioscheduler ve FreeBSD neomezuje rychlost (možná záměrným vkládáním sleep) IO procesu, aby zabránil přetížení systému a nedostupnost dat pro ostatní procesy.
-
Pomalé ZFS – jak malé jsou „malé“ soubory?
Pokračujeme v příběhu [1] [2] o pomalém ZFS na FreeBSD. Tentokrát se podíváme na to, co jsou to malé soubory z hlediska rychlosti čtení ZFS.
-
Pomalé ZFS – pokračování
V minulém článku jsem se dotkl výkonu ZFS na FreeBSD a to v úloze mazání většího množství (malých) souborů. Ve skutečnosti to ale není ten hlavní problém, který mě na ZFS trápí. Jak již bylo napsáno, mazání pracovního adresáře lze hravě vyřešit tak, že jej budeme vytvářet jako samostatný dataset, který na konci práce smažeme…
-
ZFS a mazání velkého množství souborů
Nedávno jsem potřeboval vyřešit poměrně jednoduchý problém. Rozbalit několik tarů obsahující adresářový strom. Jednotlivé archivy mají velikost řádově malé stovky GB, největší cca 300GB a obsahují několik stovek tisíc souborů.
-
Odstranění vdev z ZFS poolu
ZFS letos dostalo od Oracle milý dárek. Po dlouhé době je konečně možné odstranit VDEV ze zpoolu a opravit tak například chybu administrátora, kdy místo přidání disku do existujícího vdevu jej přidal rovnou do zpoolu jako další vdev.
-
Proč BTRFS a proč ne ZFS
Nedávno jsem tu psal o zkušenostech ze světa FreeBSD. Už v úvodu jsem se zmínil, že jsem před lety testoval ZFS a nakonec raději zvolil BTRFS. V tomto článku bych se pokusil vysvětlit proč. A rád bych hned na úvod napsal, že v žádném případě nepovažuji jeden FS za lepší a druhý za horší. Není to…