Checksummen in Dateisystemen kosten Rechenleistung und oft auch Performance, sowohl beim Schreiben wenn sie erzeugt werden müssen, als auch beim Lesen wenn sie überprüft werden. Da fragt man sich dann manchmal ob man sie im
Normalbetrieb überhaut braucht.
Die Festplattenhersteller geben in ihren Datenblättern Informationen zur Zuverlässigkeit ihrer Festplatten an: neben der MTBF (mean-time between failures) auch die Non-recoverable read errors per bits read. Dort stehen dann beeindruckende Zahlen wie zum Beispiel 1:10¹⁴.
Nun sind moderne Festplatten typischerweise um die 4 TB groß, das sind 4·10¹² Byte also 4·10¹²×8 = 3,2·10¹³ Bit – und das ist gar nicht so weit von 10¹⁴ weg. Es ist gerade einmal Faktor 3–4 und bedeutet wenn man eine moderne Festplatte dreimal komplett ausliest hat man eine gute Chance auf einen Bitfehler. Das nennt sich dann Data degradation oder etwas flapsig Bitrot.
Und das ist der Grund warum man Dateisysteme mit Checksummen über Daten haben will, wie z.B. BtrFS oder ZFS – und am besten noch Redundanz (und natürlich Backups).
Kommentare