Wirtualizacja pamięci masowych, czyli nowe życie serwera

0

Wirtualizacja pamięci masowych nie jest nowym zjawiskiem w świecie IT. Niemniej w ostatnim czasie widać rosnące zainteresowanie tym trendem.

Trwa seminarium HP poświęcone pamięciom masowym, na sali znajduje się kilkudziesięciu pracowników działów IT. Swoją prezentację rozpoczyna Mateusz Maciejewski z HP pokazując zdjęcie bliżej nieokreślonego serwera. To serwer czy pamięć masowa? – pyta Maciejewski. Zapada martwa cisza. – Jedno i drugie – przełamuje w końcu milczenie jeden z uczestników spotkania.

Software Defined X – nowa rola oprogramowania

Hardware nie od dziś wymaga wsparcia ze strony oprogramowania. Jednak jak do tej pory to serwer bądź macierz dyskowa dyktowała warunki. Teraz ma nastąpić zmiana ról. – To bardzo dobra wiadomość dla administratorów IT. Ich rola się zmieni, staną się architektami, przy okazji pozbywając się nudnych, rutynowych zadań. Administratorzy zaczną myśleć kreatywnie zamiast reagować na awarie, małostkowe problemy czy zajmować się instalowaniem systemów operacyjnych – przekonuje Mateusz Maciejewski z HP. Czym tłumaczyć nagłą metamorfozę w świecie IT? Właściciele biznesów coraz gorzej radzą sobie z lawinowym przyrostem ruchu sieciowego oraz terabajtami danych. Co gorsza, dyrektorzy finansowi nie chcą słyszeć o ciągłym zwiększaniu budżetów na informatykę. Niewykluczone, że wkrótce pojawi się kolejny problem, a mianowicie deficyt specjalistów IT. Oprogramowanie ma pomóc w opanowaniu rosnącego chaosu. Najgłośniej mówi się o rozwiązaniach SDN, czyli sieciach sterowanych programowo. Administrator korzystający z tego typu rozwiązania nie traci czasu na konfigurowanie sieci, bazując na zdefiniowanych szablonach. Ale nie tylko sieci mogą być definiowane programowo. To samo rozwiązanie można wykorzystać również dla pamięci masowych.

Dobry klimat dla wirtualizacji pamięci masowych

O ile wirtualizacja serwerów stała się powszechnym zjawiskiem, o tyle wirtualizacja pamięci masowych postępuje dość wolno. Jednak ostatni rok przyniósł w tym zakresie spory przełom. Z jednej strony przyczyniły się do tego wielkie koncerny, a także firmy analityczne promujące Software Defined Storage, a z drugiej nowe możliwości sprzętu. – Serwery są dziś na tyle mocne, że mogą sprostać zadaniom, o których do niedawna nikt nawet nie marzył. Dla przykładu HP Blade 460c Gen 8, wyposażony w dwa procesory Intel Xeon E5-2680 pozwala na swobodną obsługę 250 wirtualnych maszyn dla VDI. Maksymalna konfiguracja pozwala na zastosowanie 24 rdzeni oraz 1 TB pamięci RAM. Dlaczego tak silnych jednostek nie wykorzystać do innych celów niż obsługa aplikacji? – pyta Mateusz Maciejewski.

wirtualizacja pamięci masowych

Innym czynnikiem sprzyjającym wirtualizacji pamięci masowych jest spadek cen dysków SSD. Do niedawna koszty zakupu pamięci flash przeznaczonej do rozwiązań korporacyjnych przyprawiały o zawrót głowy. Na przestrzeni ostatnich kilkunastu miesięcy nastąpiła erozja cen tych nośników. Dziś za dysk SSD o pojemności 120 GB trzeba przeznaczyć 300 USD. To wciąż dużo, ale jak powszechnie wiadomo pamięci flash biją na głowę HDD pod względem wydajności czy zużycia energii. Poza tym producentom udało się poprawić trwałość nośników. Niektóre dyski SSD o pojemność 800 GB mogą pochwalić się trwałością, pozwalającą na zapis rzędu 6,5 PB danych.

Druga młodość serwera

Pamięć masowa zdefiniowana przez oprogramowanie musi spełniać odpowiednie warunki. Kluczową kwestią jest występowanie zaawansowanych usług takich jak thin provisioning, tworzenie snapshotów, zabezpieczenia RAID.
– Wirtualna macierz musi dorównywać pod względem parametrów tradycyjnym rozwiązaniom. Poza tym powinna działać na dowolnym sprzęcie. Ideą Software Defined Storage jest otwartość na różna aplikacje – mówi Mateusz Maciejewski.
HP oferuje systemy do wirtualizacji pamięci masowych już od sześciu lat. Sztandarowym produktem jest Virtual Storage Appliance oparty na systemie operacyjnym HP Left Hand. Oprogramowanie jest zoptymalizowane pod kątem środowisk vSphere oraz Microsoft Hyper-V. Najnowsza wersja zawiera szereg interesujących funkcji, wśród których wyróżnia się HP Adaptive Optimization. Technologia pozwala automatycznie przenosić bloki danych do odpowiedniej warstwy pamięci masowej, w zależności od potrzeb aplikacji. Aktywnie używane bloki danych migrują do dysków SSD, a nieaktywne do bardziej ekonomicznej pamięci masowej np. dysków twardych. Funkcja dostępna jest w wyposażeniu standardowym, począwszy od wersji dla 10 TB danych. Walorem SVA jest duża skalowalność – do 32 serwerów fizycznych. Co ciekawe, klaster można rozszerzyć na dwie lokalizacje. Awaria w jednej z serwerowni nie powoduje utraty dostępu do aplikacji. Kolejny atut to wysoka dostępność. Technologia RAID na poziomie sieci zapewnia zapis równoległy i ochronę wielu kopii danych w klastrze węzłów pamięci masowej, eliminując punkty awarii w macierzy. Alternatywą dla VSA jest HP Store Virtual 4000, występujący w wersji fizycznej, oferowany razem z serwerem. Dużą popularnością wśród klientów cieszy się model HP Virtual Store 4335, składający się z trzech dysków SSD oraz 7 dysków twardych SAS. Obie platformy posiadają identyczną architekturę, system operacyjny i zestaw funkcjonalności. Z tą różnicą, że VSA pozwala zwirtualizować funkcjonujące już w firmie serwery, dając im drugą młodość.

Serwery coraz częściej przejmują zadania do niedawna zarezerwowane dla macierzy dyskowych. To rozwiązanie, z którego coraz częściej będą korzystać małe i średnie firmy, poszukujące ekonomicznego, optymalnego systemu do przechowywania danych. W najbliższej przyszłości serwery nie wyeliminują klasycznych rozwiązań, oba urządzenia będą koegzystować.

BRAK KOMENTARZY

ZOSTAW ODPOWIEDŹ