Meandry wirtualizacji pamięci masowych

0

Lata 2007 i 2008 upływają nam pod znakiem wirtualizacji serwerów. Produkty i rozwiązania wirtualizujące serwery swój sukces i akceptację zawdzięczają temu, że dostarczyły obiecane korzyści, w tym przede wszystkim redukcję kosztów sprzętowych (lepsze wykorzystanie istniejących zasobów) i zarządzania, znaczne uproszczenie i automatyzację procesów tzw. provisioningu serwerów (przekładające się na znaczne skrócenie czasu, który potrzebny był do przygotowania usługi do pracy) oraz podniesienie dostępności serwisów biznesowych poprzez serwisy infrastrukturalne, uniwersalne dla większości aplikacji. W tym świetle dziwi więc fakt, że po zakończonej dużym sukcesem fali konsolidacji pamięci masowych, próba ich wirtualizacji cieszy się znacznie mniejszym powodzeniem na rynku.

Cele wirtualizacji pamięci masowych pozostają tożsame z celami wirtualizacji serwerów: redukcja kosztów sprzętowych (poprzez wyższą utylizację), pracochłonności zarządzania, skrócenie i automatyzacja provisioningu zasobów pamięci masowych oraz podniesienie dostępności usług. W miarę pełna i dogłębna definicja wirtualizacji pamięci masowych znajduje się na Wikipedii. Przyjmując tę definicję jako podstawę rozważań, na przykładzie kilku technologii widać, że spełniają one wybrane wymagania tylko w ograniczonym stopniu.

Korzyścią z zastosowania kontrolerów wirtualizacyjnych (urządzeń, do których podłączamy macierze dyskowe w celu pełnej wirtualizacji) są standardowe funkcje kopii migawkowych (snapshot), replikacji, QoSS (Quality of Storage Services) jako priorytetyzowanie operacji wejścia-wyjścia oraz operowanie pulami zasobów dyskowych.

Po bliższej analizie okazuje się, że większość macierzy dyskowych klasy średniej i zaawansowanej oferuje te same lub bardzo zbliżone funkcje bez konieczności wprowadzania dodatkowej i zbędnej warstwy dodatkowego urządzenia wirtualizującego, które wprowadza opóźnienia i zwiększa prawdopodobieństwo awarii. Obecnie każda licząca się macierz klasy średniej umożliwia podłączenie kilku rodzajów dysków – od tanich napędów SATA, charakteryzujących się zwykle dużą pojemnością, po szybkoobrotowe dyski FC. Wynika z tego, że standardowa macierz klasy średniej w cenie zaczynającej się od 2500 euro/TB ma większość niezbędnych funkcji wirtualizacyjnych.

Od pewnego czasu jesteśmy przekonywani, że prawie robi różnicę – co zatem z microprovisioningiem? Zacznijmy więc od początku. Pomysł microprovisioningu wziął się stąd, że systemy operacyjne zwykle nie potrafią automatycznie zarządzać (zwiększać i zmniejszać) przestrzenią dyskową w odpowiedzi na wzrastające zapotrzebowanie aplikacji, więc dostawcy wpadli na pomysł alokowania dowolnych przestrzeni, używając technologii analogicznej jak w przypadku tzw. sparse file, umożliwiając wystawienie dowolnej ilości wolumenów, bez fizycznej alokacji przestrzeni dyskowych.

Ci sprytniejsi, przewidując, że próba zmirrorowania takich zasobów z poziomu menadżera woluminów fizycznych wygeneruje często niespełnialne zapotrzebowanie na fizyczną alokację przestrzeni dyskowej dodali funkcję, w której bloki zapełnione zerami (np. przez pełny format lub dedykowany program) nie są fizycznie alokowane na dyskach. Okazuje się, że większość systemów plików charakteryzuje się tą własnością i niekoniecznie w pierwszej kolejności zapisuje dane na przestrzeniach ze skasowanych plików, ale alokuje przestrzenie według innych, optymalnych dla nich algorytmów. Stąd część użytkowników po kilku miesiącach stosowania rozwiązań microprovisioningu ze zdumieniem spostrzega, że poziom fizycznej alokacji danych wzrasta. Co w takiej sytuacji proponują dostawcy? Uruchamianie procedur „zerujących” niewykorzystaną przestrzeń i w ten sposób redukcję fizycznej alokacji. Czy w takim razie dodatkowe 3000 euro/TB zostało wydane po to, aby wykonywać dodatkowe – zbędne z punktu widzenia biznesu – procedury?

Niektórzy powiedzą: malkontent, nic go nie zadowoli. A benefity QoSS? A standaryzacja? A przeniesienie „ciężkich” zadań wirtualizacji na warstwę sprzętową w celu odciążenia serwerów? Wszystkie te funkcje od lat są dostępne w produktach i rozwiązaniach, działających bez dodatkowych procedur, ograniczeń funkcjonalnych i wyśrubowanych wymagań wstępnych. Ale o tym następnym razem.

Autor: Piotr Nogaś, Presales Consultant Manager, Symantec Poland

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ