Kiedy musimy optymalizować (zwiększać lub zmniejszać) osiągi macierzy to do dyspozycji mamy dwa narzędzia: cache lub “tiering”. Buforowanie to proces, który przenosi najczęściej używane dane do bufora kontrolera pamięci masowej. Obecnie jako bufory stosuje się dyski SSD, taka funkcjonalność nosi nazwę SSD cache. Dlatego użytkownik żądający dostępu do danych, które znajdują się już w buforze nie musi czekać, aż zostaną one odczytane z dysków macierzy; Po prostu dane są przesyłane bezpośrednio z pamięci cache. Jak sobie wyobrażasz odbywa się to bardzo, bardzo szybko.

Tiering natomiast odnosi się do przepływu danych z jednej grupy dysków do innej grupy; z wolniejszych na szybsze dyski (lepsza wydajności, dla ważnych danych biznesowych) lub z szybszych na wolniejsze dyski (ograniczenie wydajności, dla mniej ważnych danych użytkowników). Przykładem mogą być twoje ważne dane przechowywane na dyskach SAS oraz dane pracowników, które nie wymagają dużej ilości IOPS.

Oba rozwiązania mają plusy i minusy. Cache jest nie konfigurowalny przez użytkownika, jako podręczna pamięć operacyjna jest zarządzany przez kontroler pamięci masowej. Jest on bardzo szybki ponieważ pracuje tak jakby bezpośrednio na szynie – dzięki temu dane nie muszą być przesyłane przez podsystem dysków (SAS, SATA), co za tym idzie nie musi konkurować z innymi operacjami I/O na poziomie dysków. Jeszcze jakiś czas temu, było to drogie rozwiązanie, ale teraz gdy ceny dysków SSD spadły rozwiązanie SSD cache staje się naprawdę atrakcyjne.

Główną zaletą “tieringu” jest to, że ma możliwość konfiguracji przez użytkownika. Jednak nie wszystko jest proste: w złożonych środowiskach, optymalizacja “tieringu” może być dosłownie zbyt skomplikowana. Ponadto ręczny “tiering” jest nie realny bo niby skąd będziesz wiedział jakie potrzeby ma twoja pamięć masowa. Co do automatycznego “tieringu”: skąd jutro będziesz wiedział, która aplikacja biznesowa będzie miała największe zapotrzebowanie? Ponownie, w złożonych środowiskach, na to stosunkowo proste pytanie będzie bardzo trudno odpowiedzieć. Plusem tiering jest to, że oferuje większą elastyczność w zakresie, decydowania gdzie mają być przechowywane dane.

Cache to cache, niezależnie od środowiska; dane są w pamięci cache lub nie. Z drugiej strony, “tiering” potrafi dynamiczne przenosić dane między różnymi dyskami SAS lub SATA, w zależności od potrzeb biznesowych.

Jeżeli jednak wykorzystujesz “tiering” w celu uzyskania najlepszej wydajności to wtedy musisz sobie poradzić z ogromnym problemem: tiering zwiększa obciążenie całego systemu pamięci masowej! Tiering generuje opóźnienia, ponieważ żeby przenieść dane z jednej grupy RAID na drugą dosłownie tworzy IOPS, co zwiększa wydajności! Oznacza to, że w celu uzyskania większej wydajności, generujemy większe czasy opóźnienia.

Dla porównania buforowanie jednocześnie redukuje opóźnienie i zwiększa wydajność. Dzieje się tak, ponieważ dane nie są tak naprawdę przenoszone: tylko przy pierwszym zapytaniu dane są kopiowane z dysków do cache i pozostają tam na jakiś czas. Jeżeli w tym czasie nastąpi ponowne zapytanie to dane zostaną przesłane już bezpośrednio z cache. Wtedy dzieje się to bardzo szybko!

Poniższy wykres przedstawia osiągi przy odczycie dużej bazy SQL, najciekawsze na tym wykresie jest to, że wraz ze wzrostem wydajności (czerwona linia) spada opóźnienie (niebieska linia)!

Jeżeli szukasz zwiększenie wydajności poprzez “tiering”, to musisz zdawać sobie sprawę z dwóch rzeczy. Jeżeli twoje dane zostały już przeniesione przez “tiering” to wydajność wzrośnie, podczas gdy opóźnienie pozostanie na tym samym poziomie. Natomiast jeżeli dane będą dopiero przenoszone to spadnie wydajność, a opóźnienie wzrośnie; tylko po zakończeniu transferu danych odczujesz zwiększenie wydajności.

Jeżeli chcesz uzyskać dobrą wydajności w systemie pamięci masowej, to buforowanie jest po prostu lepsze niż “tiering”. Dlatego idealnym rozwiązaniem będą systemy firmy Qsan, producenta profesjonalnych macierzy NAS i SAN.

Grzegorz Bielawski

Syn, mąż i ojciec dwójki dzieci. Zawsze mówi co myśli i później często żałuje. Posiada kota i rybki, ale woli psy. Obecnie pracownik firmy QNAP, za kołnierz nigdy nie wylewa :). Lubi polemizować, ale tylko na argumenty.

View Comments

Recent Posts

QNAP otrzymuje nagrodę za tworzenie kopii zapasowych i odzyskiwanie danych po awarii od magazynu Cloud Computing

Tajpej, Tajwan, marca 12, 2026 – QNAP® Systems, Inc., wiodący innowator w dziedzinie rozwiązań obliczeniowych,…

3 godziny ago

QNAP zmienia NAS w NDR: ADRA NDR Standalone zwiększa bezpieczeństwo sieci wewnętrznej

Tajpej, Tajwan, marca 10, 2026 – Wraz ze wzrostem zagrożeń sieci wewnętrznej, wykrywanie i reagowanie…

2 dni ago

QNAP prezentuje 10-zatokowy, oparty na systemie plików ZFS, serwer NAS TS-h1077AFU z procesorami AMD Ryzen™ PRO serii 7000

Tajpej, Tajwan, marca 4, 2026– QNAP® Systems, Inc., wiodący innowator w dziedzinie rozwiązań obliczeniowych, sieciowych…

1 tydzień ago

QNAP uzyskuje certyfikat ukończenia programu Viettel Cyber ​​Security

Tajpej, Tajwan, marca 2, 2026— QNAP® Systems, Inc., wiodący innowator w dziedzinie rozwiązań pamięci masowej,…

1 tydzień ago

QNAP oficjalnie wprowadza myQNAPcloud One: współdzieloną pamięć masową w chmurze do tworzenia kopii zapasowych NAS i skalowalną pamięć masową obiektów

Tajpej, Tajwan, lutego 6, 2026 - QNAP® Systems, Inc., wiodący innowator w dziedzinie rozwiązań obliczeniowych, sieciowych…

1 miesiąc ago

QNAP prezentuje kartę sieciową QXG-100G2SF-BCM z dwoma portami 100GbE

Taipei, Taiwan, January 8, 2026 – QNAP® Systems, Inc. (QNAP), a leading computing, networking and storage…

2 miesiące ago