@
Kwoky (31.12.2023 05:46): "They also automatically correct any errors detected by ECC through rewriting." No to se děje na pozadí už na úrovni firmware, ale opraví to jen ty data, který aktivně čteš a je potřeba to jednou za čas podpořit scrubbingem. Disk je velký a ty magnetický záznamy se samy nehlásí, že jsou vadný, při nepřístupu můžou vadný záznamy na HDD smrdět hodně dlouho až se stanou neopravitelnými. Problém dnešních disků je, že si koupíš třeba 12 TB, ale maximální přenosová rychlost je třeba 150 MB/s. Málokdy ale k týhle ideální rychlosti disk dojde (fragmentace, pararelní čtení jiných dat, ...). Zkontrolovat celý disk se dneska už počítá na dny. :D Ideální je, když ten disk stále běží třeba v NASu 24/7, při běžným používání si opravuje sám data, ale občas se spustí scrubbing, který projede celý disk. Ono že ty data nejsou poškozený disk sám o sobě neví, dokud ty data nepotřebuješ číst. :) Stačí pár zapadlých archivních fotek na velkým disku, který nikdo nebude pár let potřebovat a až si je za 5 let budeš chtít otevřít, náhoda je blbec a soubor je poškozen. :D Když je disk offline, přicházíš právě o tu samopravující výhodu. Disk samoopravuje jen ty data, která právě čteš a možná nějaké blízké okolí, co mu zrovna dopadne pod hlavičku, tak je pro klid duše lepší mít naplánovaný scrubbing, co jednou za pár měsíců projede celý disk a často je ta akce záležitost na několik dní, protože se to v různých operačních systémech snaží nevytěžovat disk na 100 % scrubbingem, ale aby byl stále dostupný a použitelný.
Mám dojem, že před pár lety kvůli tomu přišli z linus tech tips o velkou část svýho 8K archivu. Stavěli si nějaký velký 1 PB, možná i větší, archivní uložiště. Bohužel si nezapli žádný úlohy na kontrolu celých dat na celých discích. Postupně jim začal přes bit rot některá data odcházet, ale nejspíš si toho nikdo nevšiml, protože to nevěděli ani ty disky. Pak chcíply v nějakých poolech disky úplně a při rebuildu diskovýho pole ochrana proti výpadku disku selhala, protože data poškozená a nebylo na pár místech z čeho počítat paritu. :) Z nějakýho důvodu bohužel tohle není často defaultně nastaveno v žádným operačním systému. I v Synology, který je celkem blbuvzdorný, je potřeba někde naplánovat úlohy pro scrubbing ručně.
Bohužel, čím větší je počet dat, tím statisticky roste šance na bit rot, který může něco nevratně poškodit. Velikosti disků rostou, ale rychlosti ne a odhalování chyb je čím dál časově náročnější. Snad za pár let budou cenově dostupný velký SSD, kde tyhle kontroly jsou oproti mechanickýmu HDD téměř instantní a není problém za běžnýho provozu kontrolovat celý disk a provádět opravy a balancování vytížení buněk. SSD v šuplíku je asi nejhorší médium na archivaci, ale když někde neustále zapnuté poběží, tak je možná nejlepší.