W pułapce pojemności

0

Zaawansowane technologie pomagają organizacjom uporać się z lawinowym przyrostem danych. Jednak nowe rozwiązania wymagają od nabywców świeżego spojrzenia na kryteria decydujące o wyborze urządzenia.

Wyścig na rynku pamięci masowych trwa, terabajty zastępują gigabajty, a w poczekalni czekają już kolejne jednostki określające pojemność. Większość klientów przy wyborze urządzeń do przechowywania danych przywiązuje wagę do jednego wskaźnika – ceny za gigabajt bądź terabajt danych. Tymczasem era cyfrowych danych niesie ze sobą nowe wyzwania. Zmiany na rynku storage przebiegają w kilku kierunkach – zwiększaniu pojemności dysków, ekspansji dysków SSD, poprawie wydajności pracy systemu, racjonalnym przechowywaniu zasobów – np. deduplikacja i uproszczeniu zarządzania. To powoduje, że wybór odpowiedniego systemu staje się coraz trudniejszy, a prosta kalkulacja bywa zawodna.

Fachowcy radzą, aby spojrzeć na system szerzej niż dotychczas i ocenić go pod kątem jego niezawodności, bezpieczeństwa, efektywności, wydajności i łatwości zarządzania. Opieranie się wyłącznie na kryterium – cena za gigabajt prowadzi do niepotrzebnych wydatków, a czasami do kłopotów z obsługą niektórych aplikacji. Z drugiej strony nabywcy powinni ze spokojem przyjmować wszelkie technologiczne nowinki, a decyzję o ich wdrożeniu, powinna poprzedzić dokładna analiza kosztów i korzyści. Potrzeby organizacji w zakresie przechowywania danych są dziś bardzo zróżnicowane, a na rynku nie ma uniwersalnego rozwiązania. Natomiast wszyscy odbiorcy bez wyjątku powinni szukać systemów charakteryzujących się elastycznością i łatwym zarządzaniem. Branża pamięci masowych kojarzy się ze skomplikowanymi systemami, których obsługa wymaga niemal tajemnej wiedzy. Podczas ostatniej konferencji EMC w Londynie, Joe Tucci przyznał, że obsługa macierzy dyskowych jest zbyt trudna i nadszedł czas, aby to zmienić. Pierwszym krokiem w tym kierunku ma być system VNXe. Podczas prezentacji produktu, jego konfiguracją produktu oraz usuwaniem drobnych usterek zajął się 10-letni chłopiec z iPadem w ręku. Nawet jeśli był to trochę przerysowany obrazek, to pokazuje tendencje zachodzące w świecie pamięci masowych. Obecnie około 70 procent budżetów IT pochłania zarządzanie i nadzór nad istniejącymi systemami. Złożoność systemu oraz skomplikowane zarządzanie prowadzi z reguły do wzrostu kosztów obsługi, obniża produktywność, a tym samym konkurencyjność organizacji.

Potrzeba szybkości

Przepustowość oraz liczba operacji wejścia/wyjścia to podstawowe wskaźniki opisujące wydajność pracy urządzenia. Jednak ich waga jest różna dla poszczególnych grup użytkowników. Co istotne, większość operacji wykonywanych przez systemy nie wymaga wyśrubowanych parametrów. Wyjątkiem są tutaj aplikacje krytyczne, dla których wartość IOPS ma rzeczywiście istotne znaczenie. Do tej grupy należą m.in. programy odpowiedzialne za transakcje w sieci, bazy danych, aplikacje do pracy grupowej, aplikacje obliczeniowe, systemy analiz i transakcji finansowych. Wskaźnik IOPS, czyli średnia ilość losowych operacji odczytu lub zapisu możliwa do wykonania w ciągu jednej sekundy, zależy od opóźnień generowanych przez głowicę i kręcący się dysk.

7,200 RPM HDD 80 IOPS
10,000 RPM HDD 120 IOPS
15,000 RPM HDD 170 IOPS
SSD > 10,000 IOPS

Szybkość odczytu bądź zapisu danych nie koresponduje z pojemnością dysku. W ciągu ostatnich kilku lat takie parametry jak pojemność czy gęstość zapisu rosną w szybkim tempie, samego nie można powiedzieć o prędkości obrotowej talerza (RPM) czy też średnim czasie pozycjonowania głowicy (average seek time). W tym miesiącu mija jedenasta rocznica od czasu, kiedy na światowych rynkach pojawił się dysk kręcący się z prędkością 15 000 obrotów na sekundę. Do dziś żadnemu producentowi dysków twardych nie udało się przekroczyć tej granicy. W tym samym czasie średni czas pozycjonowania głowicy zmniejszył się zaledwie z 3,9 ms do 2ms.

Jeśli jedynym sposobem oszacowania kosztów systemu pamięci masowej jest cena z gigabajt danych, nabywca może wpaść w pułapkę. Z jednej strony zapłaci za powierzchnię, której tak naprawdę nie potrzebuje. Niemniej są i dodatkowe konsekwencje nieracjonalnego wyboru, takie jak zwiększona konsumpcja energii, dodatkowe metry kwadratowe w centrum danych czy wreszcie koszty zarządzania i serwisu.

Wydajność i pojemność

Porównanie systemów w oparciu o cenę gigabajta jest bardzo proste. System A o pojemności 20 TB kosztuje 60 tys PLN, czyli 3 tys. za 1 TB. Za konkurencyjny produkt B o pojemności 30 TB trzeba również zapłacić 60 tys PLN, zatem tylko 2 tysiące za 1 TB. System B jest zdecydowania tańszy. Obecne realia są dużo bardziej złożone, wymagania nowoczesnego data center nie ograniczają się do zapewnienia odpowiedniej pojemności dysków, równie istotną rolę odgrywają IOPS, przepustowość, niezawodność, efektywne zużycie energii, skalowalność itp. Jeśli system ma obsługiwać aplikacje wymagające wielu operacji wejścia/wyjścia, należy porównać poszczególne rozwiązania wyliczając cenę za wydajność. Wspomniany wcześniej system A jest wyposażony w dyski SSD i realizuje funkcjonalność automatycznego tieringu, natomiast B posiada prostą konfigurację z dyskami Fibre Channel. W przypadku SSD liczba IOPS przekracza 10 tysięcy, zatem kryterium cena do ilości operacji wejścia/wyjścia przemawia zdecydowanie na korzyść systemu A.

Ocena w oparciu o wydajność nie jest tak prosta jak kalkulacja bazująca na pojemności. Niemniej jej znaczenie wzrasta, tym bardziej, że pojawiają się coraz większe możliwości w zakresie optymalizacji i przyspieszenia pracy systemu. Ważne, że potencjalni użytkownicy porównywali systemy biorąc pod uwagę ich wydajność oraz pojemność, a w dalszej kolejności elastyczność oraz skalowalność. W innym przypadku analizy przypominają trochę porównywanie jabłek i pomarańczy.

Wojciech Urbanek

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ