Linux: Crashtest systemów plików ext2, ext3 i ReiserFS

Każdy system plików stara się być uniwersalny i solidny. Daje to przeciętnemu użytkownikowi wrażenie, że tak naprawdę nie ma znaczenia, jaka jest wewnętrzna reprezentacja danych.

Czy ważne jest tylko to, czy rozmiar woluminu danych mieści się w systemie plików, czy w jego zawartości? Próby Znalazłem ograniczenia, które sprawiają, że cały system jest uciążliwy w użyciu, i takie, które powodują awarię całego systemu plików.

Spróbujmy np. zapisać do systemu plików stałą ilość danych (np. 1GB) w jednym folderze, zawsze z inną spójnością - przy wykładniczo rosnącej liczbie plików w porównaniu do logarytmicznie malejącej objętości poszczególnych plików. W każdym teście całkowita liczba skopiowanych danych będzie taka sama, czyli 1 GB.

Normalny widok użytkownika

Przeciętnemu użytkownikowi może się wydawać, że skoro ilość przesyłanych danych będzie stała, to prędkość kopiowania również będzie taka sama.

Widok programisty

Programista, który kiedykolwiek słyszał coś o łączonej pamięci tych samych lub różnych elementów i późniejszej pracy z dużą liczbą wskaźników, prawdopodobnie zacznie rozumieć, że narzut powstający podczas tworzenia pliku nie jest całkowicie bez znaczenia i zacznie czuć się zdradzony.

Pogląd doświadczonego administratora

Dla każdego doświadczonego administratora pracującego na dowolnej platformie będzie prawdopodobnie jasne, że nie ma nic bardziej niezdarnego w pracy niż duża liczba małych plików. Trudno je przenosić, przeszukiwać i trudno ustalić tylko ich całkowitą wielkość zapisaną np. w jakimś katalogu. Nie wie dlaczego, ale zaczyna mieć przeczucie, że powolny narzut nie jest jedynym problemem, ale że system plików może nie przetrwać transferu bardzo dużej liczby plików.

Który system plików jest najlepszy? Dowiesz się na kursie.

Marián Knězek