Rozwój rynku pamięci masowych w ciągu najbliższych lat będzie kształtowany przez trzy główne technologie: thin provisioning, zastosowanie dysków SSD w tzw. mechanizmie storage tiering oraz popularyzację wysokowydajnych interfejsów 10Gb Ethernet.
Dostawcy, którzy potrafią połączyć co najmniej dwie z tych technologii w swoich rozwiązaniach, dostarczą firmom wymierne korzyści – podnosząc efektywność kosztową i wydajność systemów pamięci masowych. Wpływ wymienionych technologii na rynek pamięci masowych staje się jasny po wykonaniu analizy kluczowych problemów dotyczących wszystkich klientów.
Wirtualizacja pamięci masowych dotychczas nie odniosła sukcesu porównywalnego do wirtualizacji serwerów. Przyczyną tego stanu rzeczy są odmienne uwarunkowania i oczekiwania klientów. Wirtualizacja serwerów swój sukces zawdzięcza przede wszystkim specyfice wykorzystania mocy serwerów. Posiadają one nadmiar zasobów: procesora/ pamięci RAM/ subsystemu IO. Większość systemów produkcyjnych jest wykorzystana w niewielkim stopniu – średnio poniżej 20%, a w przypadku RAM 40%. Kolejnym istotnym uwarunkowaniem jest niski punkt wejścia – beneficjentem wirtualizacji będzie przedsiębiorstwo, które wirtualizuje zarówno dwa, jak i tysiące serwerów.
Oczekiwania użytkowników odnośnie wirtualizacji pamięci masowych są inne. W przypadku storagu mamy przede wszystkim do czynienia z gospodarką niedoboru, jeśli chodzi o ilość operacji na sekundę i nadmiaru, jeśli chodzi o pojemność. Z niedoborem radzimy sobie od lat stosując coraz większe pamięci podręczne, których zadaniem jest buforowanie i ograniczanie ilości operacji na dyskach oraz przyśpieszenie realizacji operacji dyskowych. Jednak do dzisiaj pamięci podręczne stanowią ułamki promila pojemności obsługiwanych dysków. W przypadku bardziej wymagających aplikacji stosuje się odpowiednią ilość dysków w celu uzyskani niezbędnej wydajności dla losowych wzorców operacji odczytu/zapisu. W celu minimalizacji kosztów dyski te są współdzielone przez wiele aplikacji (tzw. konsolidacja pamięci masowych), co niestety przy jednoczesnym wzroście obciążenia kilku aplikacji powoduje drastyczny spadek wydajności całego systemu. Technologie, które służą priorytetyzacji IO, nie są zadowalającym rozwiązaniem tego problemu.
Thin provisionig według Symanteca
Thin provisioning do niedawna był rozwiązaniem ułomnym z uwagi na fakt, że brakowało wsparcia do zwalniania przestrzeni dyskowych ze strony systemów plików i aplikacji. Idea, według której wprowadzamy standard2TB systemu plików korzystając z technologii thin, działa dobrze tylko w fazie tworzenia. Efektywne zarządzanie jest możliwe dzisiaj wyłącznie przez zastosowanie rozwiązań firmy Symantec, które poprzez integrację z API macierzy typu „thin” realizuje operacje migracji danych i zwalniania przestrzeni bez nadalokacji przestrzeni. Przestrzeń na macierzach jest zwalniana przez dedykowane komendy SCSI bez konieczności „zerowania” wszystkich (dużych) przestrzeni danych. Obecna, błędna naszym zdaniem, praktyka wielu producentów polega zwykle na dostarczeniu narzędzi nadpisujących wolną przestrzeń systemu plików zerami – macierz interpretuje to jako zwolnienie zasobów.
Storage tiering
Dodatkowo wsparcie dla dysków SSD wymaga „specjalnego” traktowania – nie tylko, opisanego powyżej zwolnienia przestrzeni, ale także okresowego przygotowania wolnych obszarów do zapisu w celu zwiększenia wydajności. Brak obsługi wymienionych procesów prowadzi do obniżenia wydajności oraz efektywności wykorzystania drogich zasobów SSD. Dlatego też spektrum ich zastosowania bez oferowanej funkcji Smart Tier było nikłe. Funkcja Smart Tier umożliwia przeźroczyste dla aplikacji umieszczanie danych na tzw. „tierach” pamięci masowych. Tiery z kolei umożliwiają alokację zasobu dyskowego, bazując na zdefiniowanych politykach z granulacją pliku. Wyobraźmy sobie, że dysponujemy macierzą z trzema typami przestrzeni dyskowych:
– 4 TB super szybkich przestrzeni (SSD) : Tier 1
– 24 TB szybkich przestrzeni (dyski 15k RPM, FC w RAID 1+0) : Tier 2
– 100TB wolnych przestrzeni (SATA 1TB; RAID5) : Tier 3
Tradycyjnie umieszczamy krytyczne aplikacja na dyskach szybkich (Tier1). Z uwagi jednak na ich koszt i niedużą pojemność działanie takie nie jest efektywne. Smart Tier umożliwia stworzenie systemu plików, w których automatycznie i przeźroczyście dla aplikacji najczęściej używane dane będą umieszczane na Tier 1, często używane na Tier 2, a archiwalne na Tier 3. Statystycznie dla większości aplikacji działa reguła Pareto: 80% operacji dyskowych jest realizowana na 10-20% całego woluminu danych. Wykorzystanie zasobów wielu macierzy i zastosowanie dysków SSD w technologii Smart Tier jest ekonomicznym i wydajnościowo uzasadnionym rozwiązaniem – nie ma potrzeby inwestowania w setki drogich dysków, których pojemności wykorzystane są średnio w 30-50%.
Możliwość dynamicznego przyporządkowania typu zasobu do rodzaju danych, rozwiązuje także inny problem – archiwizację. Jeśli chcemy zredukować koszty pamięci masowych to zastosowanie Smart Tier przynosi nam oszczędności bez konieczności inwestycji w autonomiczny system archiwizacyjny – dane archiwalne przenoszone są na wolne (tanie) dyski SATA kilkukrotnie obniżając TCO takiego rozwiązania.
Piotr Nogaś, Presales Consultant Manager, Symantec Polska